Перейти к содержимому

С-1. Первичный отбор конкурсов

Роль: Руководитель (руководитель)
Приоритет: P1
Экономия: 50–60 ч/мес
Модель автономности: Координация — AI готовит, человек решает


200-300 конкурсов/день

Берём

Не берём

Под вопросом

Тендерные площадки + почта

Руководитель открывает площадку

Просмотр конкурсов — 30-40 мин

Оценка по критериям в голове

Запись в Excel + назначение менеджера

Пропускает, нигде не фиксирует

Откладывает, может забыть

Время: ~3 часа/день
Акторы: Руководитель (единственный), AI не участвует
Боль: объём рутины, критерии в голове — невозможно делегировать

Автосбор

≥80%

50-80%

<50%

Тендерные площадки + почта

AI-классификатор

Подавать — дашборд Руководителя

Рассмотреть — дашборд Руководителя

Пропустить — автофиксация с причиной

Руководитель проверяет + распределяет — 20-30 мин

Карточка конкурса в Б24

Время: 30–40 мин/день
Акторы: AI-агент (подготовка) + Руководитель (решение)


ИсточникЧто даётКак получаемСостояние
Закрытая площадкаКонкурсы, ТЗ, заказчикиПарсер / API (после НДА)Структурированное
Открытая площадкаКонкурсы, ТЗ, заказчикиПарсер / APIСтруктурированное
Почтовые рассылкиКонкурсы (дубли + уникальные)Парсер входящей почтыПолуструктурированное
Excel-реестрПрошлые конкурсы, победы/проигрышиМиграция при запускеГрязное (ручной ввод)
  • Дубли: конкурсы с разных площадок дублируются — нужна дедупликация по (заказчик + предмет + дедлайн)
  • Потери: отклонённые конкурсы не записываются → нет данных для аналитики
  • Грязь: Excel-реестр — свободный формат, без валидации
  • Разрыв: нет обратной связи «подали → выиграли/проиграли» в привязке к критериям отбора
Площадки/Почта → [парсер] → Единый пул конкурсов → [дедупликация]
→ [AI-классификатор + knowledge/screening-criteria.md]
→ Б24 воронка «Тендеры» (карточки с AI-оценкой)
→ [обратная связь: решение Руководителя → калибровка модели]

Сейчас (AS-IS)ФункцияПосле (TO-BE)Изменение
Браузер (2 площадки)Просмотр конкурсовНе нужен для скринингаУбираем — парсер собирает автоматически
Почтовый клиентРассылки конкурсовНе нужен для скринингаУбираем — парсер обрабатывает
Excel-реестрCRM конкурсовВоронка «Тендеры» в Б24Заменяем
Контроль AIДашборд скринингаНовое — observability
  • Минус 3 интерфейса для ежедневной рутины (площадки + почта + Excel)
  • Плюс 1 интерфейс — дашборд (но 30 мин вместо 3 часов)
  • Лицензии/затраты: нет прямой экономии (площадки и почта остаются для других задач), но экономия времени = основной эффект

Знания, задействованные на шагах процесса

Заголовок раздела «Знания, задействованные на шагах процесса»
ЗнаниеГде сейчасРежим примененияФормализуемость
Критерии отбора (компетенция, объём, сроки, рентабельность)Не записаны, экспертиза руководителяAI сам → проверяет по правилам70–80%
База заказчиков и репутацияНе записана, экспертиза руководителяAI помогает → подтягивает историю, руководитель оцениваетДа
Компетенции компании (что умеем поставлять)Распределена между сотрудникамиAI сам → матчит по каталогуДа
Сезонные паттерныНе записаны, экспертиза руководителяAI помогает → показывает загрузку, руководитель решаетЧастично
«Чуйка» (инсайд, отношения, нетиповое)Неявные знания руководителяЧеловек самНет (20–30% решений)
УровеньФайлСодержание
Стратегическийknowledge/company-profile.mdМиссия, направления, принципы работы
Операционныйknowledge/screening-criteria.mdКритерии отбора + веса + пороги
Тактическийknowledge/product-catalog.mdКаталог товарных групп (что умеем)
Тактическийknowledge/customer-history.mdСправочник заказчиков + рейтинги
Процессныйspecs/tender-screener.yamlПравила классификации, пороги, эскалация

→ Оцифрованные знания: knowledge/screening-criteria.md


Шаг процессаКогнитивный типДелег. ↔ Коорд.Обоснование
Сбор конкурсов с площадок и почтыИзвлечение100% делегированиеПолностью формализуемо — парсинг по структуре
ДедупликацияВалидация100% делегированиеСравнение по ключевым полям
Разбор ТЗ (предмет, объём, сроки)Извлечение + Синтез90% делегированиеТЗ полуструктурировано — LLM извлекает
Оценка по критериям РуководителяАнализ70% делегирование70-80% критериев формализованы, остальное — «чуйка»
Ранжирование (подавать / рассмотреть / пропустить)Валидация70% делегированиеПороги формальны, но граничные случаи — за человеком
Решение «берём / не берём»АнализКоординацияФинальное решение всегда за Руководителем
Распределение между менеджерамиАнализ (загрузка, опыт)КоординацияAI может предложить, но Руководитель знает нюансы
Фиксация отклонённых с причинойГенерация100% делегированиеAI записывает причину из своего анализа
AI делает сам (делегирование)Человек решает (координация)
Сбор и парсинг конкурсовФинальное «берём / не берём»
Структурирование данных из ТЗОценка инсайда и отношений
Оценка по формальным критериямРаспределение между менеджерами
Ранжирование и рекомендацияСтратегические решения
Фиксация отклонённых

Уровень делегирования: координация (коллега)
Эскалация: VIP-заказчики, нетиповые конкурсы, score 50–80%, сумма > порога


knowledge/screening-criteria.md ──→ agent context (читает при каждом запуске)
knowledge/product-catalog.md ──→ agent context (справочник компетенций)
knowledge/customer-history.md ──→ agent context (история заказчиков)
specs/tender-screener.yaml ──→ agent config (триггер, inputs, outputs)
──→ agent system prompt (из таблицы автономности)
──→ acceptance tests (из метрик ниже)

→ Спецификация агента: specs/tender-screener.yaml

МетрикаСейчасЦельИсточник теста
Время на первичный отбор~3 ч/день30–40 мин/деньХронометраж
Конкурсов обработано в деньДо 75До 200+Счётчик в системе
Точность AI-разметки>80% совпадений с решением Руководителя30-дневная калибровка
Фиксация отклонённых0%100%Записи в системе
Время от появления до решения4–8 часов<1 часЛогирование

Фаза 1 (без AI): Воронка в Б24 + ручной ввод. Единый реестр, фиксация отклонённых, дашборд. Руководитель работает в системе вместо Excel.

Фаза 2 (с AI): Автосбор с площадок + AI-разметка по критериям. Руководитель переходит от ввода к проверке.

  • НДА для парсинга закрытой площадки
  • Формализация критериев Руководителя (2–3 часа интервью)
  • Миграция исторических данных из Excel
  • Создание каталога товарных групп (с менеджерами)