«Искра Телеком» — крупный интернет-провайдер, обслуживающий тысячи частных и корпоративных клиентов.
IceRock Development совместно с «Искра Телеком» разработали и интегрировали решение на базе Большой Языковой Модели (LLM) непосредственно в кастомный таск-трекер заказчика. Ключевая особенность проекта — 100% «on-premise» развертывание в закрытом контуре компании.
Система анализирует длинные переписки в задачах (часто насчитывающие 50-100+ комментариев) и по нажатию одной кнопки генерирует краткую сводку (summary) о текущем статусе, проделанной работе и следующих шагах. Это решение позволило кардинально сократить время менеджеров и исполнителей на «погружение» в задачу, полностью устранив риски утечки конфиденциальных данных клиентов во внешние AI-сервисы.
Бизнес-процессы в «Искра Телеком» построены вокруг самостоятельно разработанного таск-трекера. Руководство компании внедрило обязательное правило: вся работа, особенно по клиентским обращениям (например, «пропал интернет», «техническое подключение»), должна подробно документироваться в комментариях к задачам.
Это решило проблему отсутствия истории, но породило новую, не менее серьезную: информационная перегрузка.
Когда к задаче подключался новый сотрудник или руководитель хотел быстро понять статус, ему приходилось вручную читать десятки, а иногда и сотни комментариев. В потоке технической информации, уточнений от клиента, внутренней коммуникации и шума (флуда) терялась суть.
Перед нами была поставлена четкая бизнес-задача:
Мы предложили решение, сочетающее в себе мощь современных LLM и строгие требования безопасности, — локальный AI-суммаризатор.
Мы интегрировали в интерфейс таск-трекера кнопку «Сгенерировать саммари». При ее нажатии происходит следующее:
Таким образом, любой сотрудник, открыв задачу, избавляется от необходимости читать «простыню» переписки и сразу видит суть, что кардинально ускоряет операционную работу.
Процесс был разделен на несколько ключевых этапов:
Выбор архитектуры и технологического стека
Главным вызовом был запрет на облачные AI. Решение должно было работать в «закрытом контуре». Мы сразу отказались от внешних API и сосредоточились на on-premise решении.
Для этого требовалось три компонента:
Настройка аппаратной части
Заказчик по нашей рекомендации приобрел специализированную рабочую станцию — Mac Studio с 96 ГБ унифицированной памяти. Эта машина была выбрана как оптимальное решение по соотношению цена/производительность для задач локального инференса (запуска AI). Она была установлена в серверной комнате компании.
Развертывание AI-сервера
Мы использовали программное обеспечение LM Studio. Этот инструмент позволяет в несколько кликов скачать и запустить практически любую open-weight модель, и, что самое важное, он автоматически создает локальный API-сервер. Этот сервер полностью имитирует API OpenAI, что позволило нашим бэкенд-разработчикам использовать привычные библиотеки и инструменты, просто указав другой URL-адрес (внутренний адрес Mac Studio).
Выбор и тестирование модели
Мы протестировали несколько моделей, включая различные версии LLaMA и Mistral. В итоге наилучшие результаты по качеству суммарризации русскоязычных технических текстов показала модель Qwen (разработка Alibaba). Мы экспериментировали с разными по размеру версиями, чтобы найти идеальный баланс между скоростью ответа и качеством сводки.
Интеграция
Процесс интеграции был самым быстрым этапом:
Весь процесс от закупки оборудования до запуска в эксплуатацию занял около одной недели, что демонстрирует крайнюю эффективность и скорость развертывания подобных решений при наличии нужной экспертизы.
Самым сложным и нетривиальным был поиск решения для обхода ограничений безопасности.
Проблема заключалась в том, что в комментариях к задачам содержался «коктейль» из конфиденциальной информации: персональные данные клиентов (ФИО, адреса), технические детали сети, внутренние обсуждения команды.
Передача такой информации в любой внешний сервис, будь то ChatGPT, Claude или их аналоги, была абсолютно недопустима. Это создавало прямой риск нарушения ФЗ-152 «О персональных данных» и репутационных потерь для телеком-оператора.
Классические «облачные» AI-решения, которые так легко интегрировать, были под полным запретом. Нам нужно было придумать, как получить всю мощь современных LLM, не отправляя из компании ни одного байта данных.
Мы решили эту проблему, построив полностью изолированный («air-gapped») AI-контур внутри инфраструктуры заказчика.
Таким образом, весь жизненный цикл запроса на суммарризацию выглядит так:
Браузер сотрудника (внутренняя сеть) ➔ Бэкенд таск-трекера (внутренняя сеть) ➔ Mac Studio с LM Studio (внутренняя сеть) ➔ ... и обратно.
Ни один пакет с конфиденциальными данными не покидает периметр компании. Мы решили проблему, доказав, что внедрение передовых AI-технологий возможно даже в условиях строжайшей корпоративной безопасности.
Результаты превзошли ожидания. Мы не просто добавили «еще одну фичу», мы фундаментально изменили скорость работы с информацией в компании.
Этот кейс наглядно демонстрирует, что для внедрения AI не обязательно жертвовать безопасностью. Правильная архитектура и использование on-premise решений позволяют получить всю выгоду от технологий, сохранив полный контроль над своими данными.