Бизнес план для оперативной памяти

Продавцы не должны быть предоставлены сами себе. Есть такое понятие, как внутренняя мотивация и внешняя мотивация. Внутренняя мотивация – продукт самодисциплины, показатель духовного и волевого уровня развития. Это дефицит. Очень самодисциплинированных деловых людей в природе мало )) Среди продавцов так это вообще днем с огнем не найти.

Нам важна мотивация внешняя, та, что исходит от руководителя, собственника, предпринимателя. Менеджеров надо мотивировать на подвиги продаж. Необходима серьезная система поощрений и взысканий, нужны различные моральные, материальные, психологические инструменты воздействия на продавцов. Один из таких инструментов является проведение оперативки в отделе продаж.

Итак, как надо проводить оперативку в отделе продаж:

К оперативке продавцы должны готовиться заранее

Значит о ее проведении надо информировать тоже заранее. Лучше сделать это на постоянной основе в определенные дни и часы. Оперативка должна держать как бы в тонусе, даже немного в страхе продавцов. Там будут разбирать их работу, их показатели. У кого-то они лучше, у кого-то хуже. Одного могут похвалить, другого – поругать.


Начинайте оперативку вовремя, минута в минуту

Это важно. Опозданий быть не должно. Кто опоздал – тому минус. Есть исключение – это продажа. Продажи для нас – это святое )) Но об этой продаже продавец должен уведомить руководителя заранее. Это важно, иначе под соусом продаж будут опаздывать, общаться просто с текущими клиентами и делать свои дела…

Обозначьте цель оперативки

В начале оперативки озвучьте цель оперативки и что на ней будет, а также сколько времени она будет длиться. У всех куча дел и планов, и служебных, и личных. Если вы проводите оперативку вечером, имейте в виду, что менеджеры устали, хотят кушать, думают о доме, о семье. Лучше не задерживать.


Озвучьте цифры, показатели работы отдела продаж

Скажите, что истекший период (месяц, квартал, год) ваш отдел продаж продал столько то, выполнил план или не выполнил. Если план выполнен или перевыполнен, продемонстрируйте удовлетворение, покажите эмоции позитива (как это делать я объясняю на моих тренингах для руководителей либо на консультации для руководителя). Если же план не выполнен, можете, наоборот, показать немного эмоции недовольства.

Дайте обратную связь менеджеру

После ответа менеджера обязательно что-то уточните, не оставляйте его рассказ просто монологом, он должен чувствовать, что вам небезразлично то, что он говорит. Да и врать меньше будет, если будет чувствовать, что вы все внимательно слушаете. После уточнений резюмируйте ответ менеджера. Поставьте ему новую задачу. Немного похвалите его за проделанную работу, но отметьте, что в целом он может лучше. Можете напомнить, что ранее у него были лучшие результаты, значит он может, если постарается.

Дисциплина и еще раз дисциплина

Пока общаетесь один на один с каждым менеджером, остальные должны молчать и внимательно слушать. Если кто-то отвлекается, надо сделать замечание. Если не слушается, прервать докладчика и устроить прилюдный “наезд”.

Подвести итог оперативки

После общения со всеми менеджерами (можно выборочно, тогда кто-то скажет «Уфф, меня пронесло» ), резюмируйте, подведите итог оперативки. Еще раз напомните о главных целях и задачах компании и отдела продаж. Вдохновите на подвиги, скажите что-то ценное для всех, вдохните, так сказать, в них дух оптимизма и курса на победу.

Вовремя, как и обещали, закончите оперативку. Если кто-то вам отдельно нужен попросите задержаться и зайти к вам в кабинет. Хорошо, если в конце оперативки также напомните когда будет следующая оперативка, чтобы менеджеры не расслаблялись, помнили, что разбор полетов не за горами.

Реальные оперативки проходят по-разному. Я сам на многих бывал, в разных компаниях, в разных должностях, и отчитывался перед руководителем, и проводил сам. Бывают ситуации, когда назревают недовольства сотрудников, переходящие в открытый конфликт, между собой или с руководителем. Часто возникают споры, разногласия, превращающие оперативку в настоящий балаган.

Кстати, осторожно используйте критику как инструмент воздействия на сотрудника. Как правило, критику воспринимают в штыки. Если у Вас не военная организация, не Газпром, не Сбербанк, «строить» сотрудников у Вас сильно не получится, больше используйте методы убеждения и «пряника». Метод «кнута» только для самых непокорных ))

Как-то так. Пишите комменты, задавайте вопросы. Если хотите “прокачать” в себе лидера или потренироваться проводить оперативку, обращайтесь, я вас потренирую.

Автор статьи Кузин Андрей.

Источник

Читателей:
29

Технология проведения оперативок

Оперативка — это один из способов общения директора магазина, администратора с персоналом. Оперативка призвана решать три задачи: информирование, инструктирование и укрепление коллектива.

Цель оперативки:

  • Проанализировать работу прошедшего дня;
  • Установить задачи на текущей день;
  • Настроить персонал на результативную работу.

За организацию и проведение оперативок отвечает директор предприятия.

Оперативки дают возможность директору и администратору проанализировать произведенные операции и выделить участки работы, нуждающиеся в улучшении.

На оперативках происходит информирование персонала о стратегии компании, планах продаж и продвижения товаров, графиках работы и иных неотложных делах, а также оглашение общих объявлений, для учета предложений персонала по работе на предстоящий период.

Оперативки должны проводиться ежедневно, в удобное для производства время

  • Продолжительность оперативки 10 минут;
  • На подготовку рабочего места отводиться _ минут (администратор проверяет рабочие места персонала);
  • В _ часов начинается смена и весь персонал обязан быть на своих рабочих местах.
Читайте также:  Бизнес план центр помощи людям

План проведения оперативок:

  1. Табелирование присутствующих.
  2. Оценка внешнего вида.
  3. Анализ работы прошедшего дня.
  4. Постановка задач на текущий день.
  5. Другие вопросы.

Подробное описание пунктов плана проведения оперативок:

Табелирование присутствующих

В табеле указывается количество присутствующих, отсутствующих (указывается причина).

Задачи, Миссия, Ценности компании — зачитываются.

Задачи персонала:

  • Мы работаем на благо покупателей.
  • Мы стремимся к высокому уровню обслуживания покупателей.
  • В нашем магазине только свежая  продукция.
  • В нашем магазине лучший ассортимент.
  • Мы используем лучшие технологии.
  • Мы стремимся быть командой профессионалов.
  • Мы стремимся сделать наш магазин любимым, престижным, доходным.

 Наш девиз: «готовим как для себя и своего ребёнка!»

Ценности компании:

  1. Профессионализм.
  2. Ответственность.
  3. Мобильность.
  4. Лояльность.
  5. Порядочность.
  6. Целеустремленность.
  7. Доброжелательность.

Оценка внешнего вида:

Наличие и аккуратность фирменной одежды

Бейджи  фирменные.

Макияж — легкий.

Волосы — аккуратно убранные.

Ногти — обработанные.

Обувь — закрытые туфли, темные на низком каблуке.

Анализ работы прошедшего дня.

  • Анализируется выполнение плановых показателей.
  • Соблюдение стандартов обслуживания.
  • Чистота рабочих мест.

Администратор: контроль за чистотой всего ТЗ, служебных помещений.

Продавец: поддержание чистоты в ТЗ, отсутствие пустых коробок, упаковок на прилавках.

Ст.кассир: контроль за соблюдением чистоты в прикассовой и кассовой зонах и её поддержание.

Кассир: поддержание чистоты в прикассовой и кассовой зонах, отсутствие посторонних предметов, чистота транспортной ленты.

Оператор: поддержание чистоты на рабочем столе, отсутствие посторонних предметов,     правильное хранение документов.

Постановка задач на текущий день

Администратор ставит основные задачи по выполнению плана и отпускает персонал по рабочим местам.

Администратор в индивидуальном порядке проверяет рабочие места и на месте ставит персоналу дополнительные задачи.

Анализ работы и постановка задач должны осуществляться в соответствии с технологиями.

Другие вопросы

  • Консультации покупателей об ассортименте и его качестве, свойствах.
  • Информирование покупателей об акциях, проводимых в магазине.
  • Информация о новых поставщика, новых товарах.
  • Сбор маркетинговой информации в ТЗ.

Источник

Примерно 5 миллисекунд проходит от запроса до ответа, если данные хранятся на жестком диске. SSD отвечает в 30 раз быстрее — за 150 микросекунд. Оперативной памяти требуется в 300,000 раз меньше времени — лишь 15 наносекунд.*

Можно долго рассуждать о том, как бизнес-аналитика помогает финансам или логистике. Способов применить информацию много, все время появляются новые. Но принцип работы разных аналитических решений один и заключается он в том, чтобы соединить данные из разных источников и посмотреть на них вместе — то есть целиком.

Чтобы воспользоваться информацией из нескольких источников, нужно к ним подключиться и извлечь данные. Но данные создавались разными способами, с разной периодичностью и хранятся в разных форматах. Поэтому прежде, чем визуализировать данные или передать другим системам для дальнейшей обработки, их придется объединить с помощью каких-то математических операций — трансформировать.

Технология in-memory заключается в том, что для трансформации в оперативную память единовременно загружаются все данные из разных источников. После этого трансформацию можно выполнить «на лету», без запросов к диску. Например, кликом выбрать измерение и сразу получить график, который будет отображать значения показателей в нужном разрезе. Благодаря тому, что все данные уже в оперативной памяти, аналитическому приложению не нужно делать запросы к жесткому диску для получения новой информации.

Это вступление должно помочь мне рассказать о том, как и почему менялись технологии, лежащие в основе современных аналитических решений.

Сначала было дорого

«Память — это новый диск», — заявил исследователь из Microsoft Джим Грей (Jim Grey) в начале нулевых. В 2003 году он опубликовал статью «Экономика распределенных вычислений»**, где сопоставил стоимость разных этапов компьютерной обработки данных. Джим Грей показал, что вычисления должны быть там же, где находятся данные — чтобы лишний раз их не перемещать. Он советовал передвинуть вычисления как можно ближе к источникам данных. То есть, отфильтровать данные как можно раньше и в результате сэкономить.

В течение нескольких следующих лет на рынке появились in-memory СУБД сразу от нескольких лидеров индустрии, включая Oracle, IBM, и SAP, а также несколько open source проектов — например, Redis и MemcacheDB.

Первой задачей, которую решали in-memory СУБД, оказалась не бизнес-аналитика и даже не бизнес-приложения, а возможности для электронной коммерции, открывающиеся в связи с мгновенным извлечением информации. Например, in-memory СУБД могла бы позволить интернет-магазину в реальном времени предложить покупателям товары на основе их предпочтений, либо показывать рекламу.

Рынок решений для анализа корпоративных данных тем временем развивался по другой траектории. Большинство предприятий неразрывно связаны с системами, использующими транзакционные СУБД, которые основаны на принципах, разработанных еще в 80-х годах прошлого века. Их задача — постоянно сохранять на диск идущие потоком небольшие порции данных и сразу подтверждать их целостность (OLTP-сценарий работы). Среди систем, использующих такие СУБД — ERP-решения, автоматизированные банковские системы, биллинг, POS-терминалы.

Но аналитические задачи требуют от базы данных совсем другое. Здесь нужно быстро извлекать ранее сохраненную информацию. Причем большими кусками — для каждого аналитического отчета понадобятся абсолютно все данные, которые должны быть в нем отражены. Даже если сам отчет состоит из одной цифры.

Причем выгружать данные хорошо бы как можно реже, потому что их объем может быть велик, а загрузка большого набора данных с помощью аналитических запросов натолкнется на несколько препятствий.

Читайте также:  Бизнес план киоска хот дог

Во-первых, жесткий диск, хранящий информацию, является медленным накопителем. Во-вторых, сама структура хранения данных в традиционной СУБД не позволит ей быстро выполнить аналитический запрос. Данные сохранялись построчно — по мере их поступления, поэтому физически рядом находятся значения, которые относятся к одной строке. А в ответ на аналитический запрос базе данных требуется отдать значения одного столбца, но из разных строк. Поэтому такие запросы выполняются медленно и создают большую нагрузку на систему хранения данных. То есть, расположение информации на диске организовано неподходящим способом.

Таким образом, традиционные СУБД, в которых изначально сохранялась вся исходная для анализа информация, плохо подходили для того, чтобы выполнять роль источника данных, к которому аналитическая система подключается напрямую. Поэтому в прошлом веке для аналитических задач стандартной практикой было использование промежуточной модели данных, в которой все значения уже рассчитаны на какой-то момент времени. Такая модель данных называлась «аналитическим кубом», или OLAP-кубом. Для создания OLAP-куба разрабатывались так-называемые ETL-процессы (extract, transform, load) — запросы к базам данных в исходных системах и правила, в соответствии с которыми нужно осуществить преобразования данных. Очевидно, если в OLAP-кубе какой-то информации нет, то в отчете она появиться не может.

Проблема этого подхода заключалась в высокой стоимости решения. Во-первых, требовалось хранилище данных, куда будут помещаться пред-рассчитанные показатели. Во-вторых, если какой-то показатель понадобился нам в другом разрезе, то чтобы его получить, все процессы трансформации данных на пути от исходной системы к OLAP-кубу приходилось создать заново, переписав аналитические запросы. После чего пересчитать весь OLAP-куб, что занимало несколько часов.

Допустим, OLAP-куб содержит информацию о продажах по разным странам. Но финансовый директор вдруг захотел увидеть продажи в разрезе городов, а потом сгруппировать их по среднему чеку. Для получения такого отчета ему приходилось обращаться в ИТ-службу, чтобы она перестроила OLAP-куб. Либо он мог форсировать события и привлечь знатока MS Excel, который создал бы такой отчет вручную. Для этого ему приходилось выгружать с помощью аналитических запросов данные из исходных систем в таблицы и проделывать с ними ряд трудоемких и недекларируемых манипуляций.

В первом случае финансовому директору приходилось ждать. Во втором он получал цифры, которым трудно доверять.

К тому же, решение оказывалось очень дорогим. Нужно было потратить деньги на создание хранилища, которое надо администрировать. Требовалось нанять специалистов по СУБД для того, чтобы они занимались ETL — перестраивали OLAP-кубы под каждую из задач. Параллельно в компании обычно появлялись специальные аналитики, которые создавали отчеты по запросу (так-называемые ad-hoc отчеты). Фактически они изобретали разные способы получить нужный отчет с помощью MS Excel и преодолевали трудности, связанные с тем, что эта программа предназначена для других задач.

В результате путь получения отчетности был дорогим даже для крупных компаний. Менеджерам из небольшого и среднего бизнеса приходилось довольствоваться возможностями, которые есть в программе MS Excel.

Решение нашлось в другом месте

В 1994 году тогда еще шведская компания QlikTech из небольшого города Лунд выпустила программу QuikView, которую позже переименовали в QlikView. Приложение было разработано для оптимизации производства. Оно позволяло узнать, использование каких деталей и материалов связано между собой, а каких — нет. То есть, от программы требовалось визуализировать логические взаимосвязи между частями, материалами, агрегатами и продуктами. Для этого она загружала в оперативную память наборы данных из разных источников, сопоставляла их и мгновенно показывала связи.

Например, есть несколько таблиц с актерами, их ролями в фильмах, режиссерами, жанрами, датой выхода, сборами — с чем угодно. Все они загружаются в оперативную память. Теперь можно кликом по любому параметру выбрать его и сразу увидеть все другие, которые с ним связаны. Кликаем по Брэду Питту — получаем кассовые сборы всех фильмов, в которых он снимался. Выбираем комедии — получаем сумму кассовых сборов комедий с Брэдом Питтом. Все это происходит мгновенно, в реальном времени.

Хотя в те годы на рынке корпоративных информационных систем аналитические задачи решались с помощью промежуточных моделей данных — OLAP-кубов, подход QlikTech оказался значительно удобнее. Он позволял отказаться от промежуточного этапа в виде расчета OLAP-куба и в результате сильно сэкономить.

Аналитическое приложение напрямую подключалось к источникам и периодически загружало все нужные для отчета данные в оперативную память. Исчезла необходимость каждый раз менять ETL-процессы для того, чтобы получить значения показателей в новых разрезах — теперь они подсчитывались в реальном времени в момент запроса. Отпала необходимость создавать и администрировать хранилище данных. Стоимость владения аналитическим решением резко снизилась.

С распространением 64-разрядных серверов, которые позволяли работать с большим объемом оперативной памяти, технология in-memory стала быстро менять бизнес-аналитику. Это хорошо иллюстрируют отчеты Magic Quadrant исследовательской компании Gartner. В 2016 квадрант лидеров покинуло сразу 6 разработчиков BI-платформ, среди которых оказались такие ветераны отрасли, как IBM, Oracle и SAP. Осталось лишь три игрока, сделавших ставку на технологию in-memory и отказавшихся от OLAP-кубов. Это Microsoft, Qlik и Tableau.

Положение игроков в Gartner’s Magic Quadrant for Analytics and Business Intelligence Platforms***

Можно сказать, что компания Qlik стала пионером и лидером трансформации рынка. К 2016 платформу для анализа данных QlikView использовали заказчики по всему миру, а годовой объем продаж превысил $600M.

Читайте также:  Бизнес план на свою птицеферму

От отчетов к управлению на основе данных

С распространением аналитических решений, основанных на технологии in-memory, перед огромным числом компаний открылась недоступные раньше способы использовать корпоративные данные. Появилась возможность не ограничиваться управленческими отчетами, которые стандартны для каждой из отраслей. Самые разные процессы стали «измерять» — вводить метрики и использовать их для описания процессов. Стало гораздо проще пользоваться объективной информацией, чтобы принимать более обоснованные решения. Резко выросло число работающих с данными бизнес-пользователей.

Огромное влияние на интерес к использованию данных оказали изменения потребительского поведения и маркетинга, который стал цифровым — то есть основанным на метриках. Много новых людей привлекли в Data Science ожидания от того, как мир изменит Big Data.

В результате всех этих процессов быстро произошла «демократизация» корпоративных данных. Раньше данные принадлежали ИТ-службам. Маркетинг, продажи, бизнес-аналитики и руководители обращались для получения отчетов в ИТ-службу. Теперь сотрудники работали с данными самостоятельно. Оказалось, прямой доступ сотрудников к данным способен повысить продуктивность работы и дать конкурентное преимущество.

Однако, первое поколение основанных на технологии in-memory аналитических решений давало бизнес-пользователям очень ограниченные возможности использовать данные. Они могли работать только с готовыми панелями и дэшбордами. Технология in-memory позволяла им «провалиться» вглубь любого показателя и увидеть, из чего он складывается. Но речь всегда шла о тех показателях, которые определены заранее. Исследование ограничивалось уже размещенными на дэшборде визуализациями. Такой способ использования данных получил название «направленная аналитика» и он не предполагал, что бизнес-пользователь самостоятельно займется подключением новых источников и будет сам создавать показатели и визуализации.

Следующим этапом на пути демократизации данных стало самообслуживание. Идея самообслуживания заключалась в том, что бизнес-пользователи исследуют данные, создавая визуализации и вводя новые показатели самостоятельно.

Стоит заметить, к моменту, когда технология in-memory стала менять бизнес-аналитику, уже не было серьезных технологических препятствий перед тем, чтобы дать пользователям доступ ко всем данным. Возможно, у самых консервативных заказчиков был вопрос о целесообразности такой функции. Но мир уже повернулся в сторону желания «посчитать все». Теперь менеджерам, не имеющим математического образования и навыков программирования, тоже требовался инструмент, который позволил бы говорить на языке данных.

Бизнес-аналитикам прямой доступ к данным открывал много новых возможностей. Они могли выдвигать и проверять любые гипотезы, применять методы Data Science, выявлять такие зависимости, существование которых трудно предположить заранее. Появилась возможность объединять внутренние корпоративные данные с внешними — полученными из сторонних источников.

В сентябре 2014 компания Qlik выпустила второе поколение своей платформы, которое получило название Qlik Sense. В Qlik Sense применялась та же архитектура и те же технологии. Отличие было в новом подходе к созданию визуализаций. Теперь стандартные визуализации можно было создавать «на лету», просто перетаскивая на лист поля с нужными измерениями. Это упростило исследование данных благодаря очень резкому сокращению цикла исследования. Проверка гипотезы стала занимать лишь пару секунд.

Возможно, быстрый рост продаж аналитических платформ с самообслуживанием во многом был связан с простотой демонстрации. Если раньше заказчику приходилось принимать решение о покупке, рассматривая слайды презентации, то теперь он мог сам установить на компьютер программу, подключиться к источникам и за пару часов пройти весь путь от создания дэшборда до открытия в своих данных.

Данные есть. Что теперь?

Технология in-memory сильно повлияла на то, как сегодня бизнес пользуется информацией. Объединять и исследовать данные стало проще, и это был сильный толчок бизнеса в сторону цифровой трансформации. Однако, глупо утверждать, будто цифровая трансформация превратилась в обыденность и теперь любая компания способна запросто ее осуществить.

С точки зрения технологий все просто до тех пор, пока объем изучаемых данных ограничивается несколькими Excel-таблицами. Если речь заходит об объединении миллиардов записей, то скорее всего задача по-прежнему окажется сложной с технической точки зрения, а ее решение потребует экспертизы в области BI и инженерных находок. Особенно если при этом еще требуется управлять качеством данных, что является обычной задачей для большинства средних и крупных компаний.

С точки зрения бизнеса все просто до тех пор, пока нужна отчетность или дэшборды со стандартными для отрасли показателями. Если же речь об аналитической системе, к которой постоянно добавляются новые источники, вводятся новые метрики, и во всем этом задействованы специалисты из разных областей, то здесь тоже нет никакой простоты.

Однако, это уже не те трудности, которые преодолевали заказчики несколько лет назад. Уровень зрелости аналитических платформ сегодня такой, что даже если исходных данных очень много, то ждать подсчета показателей больше не нужно, а полученным цифрам можно доверять. В основе случившейся трансформации — вычисления in-memory.

Следующей технологией, которая будет менять рынок аналитических решений, наверняка станут облачные платформы. Уже сегодня инфраструктура облачных сервис-провайдеров (CSP) вместе с набором услуг на ней превращается в платформу управления данными.

Источники:

* IDC, «Market Guide for In-Memory Computing Technologies», www.academia.edu/20067779/Market_Guide_for_In-Memory_Computing_Technologies

** Jim Gray «Distributed Computing Economics», www.microsoft.com/en-us/research/wp-content/uploads/2016/02/tr-2003-24.doc

*** Посмотреть, как менялось с 2010 по 2019 положение разработчиков BI-платформ в отчетах Gartner Magic Quadrant можно на интерактивной визуализации: qap.bitmetric.nl/extensions/magicquadrant/index.html

Источник