Практика внедрения коммунальной LLM4Code внутри компании: рецепт и собранные шишки

Большие языковые модели (LLM) всё больше помогают разработчикам в решении задач и становятся важным инструментом для разработчиков, однако их использование в корпоративной среде сопряжено с серьёзными ограничениями. Из-за строгих правил NDA и рисков утечки конфиденциального кода компании не могут применять публичные сервисы вроде ChatGPT или Gemini. Выходом становится развёртывание локальных opensource-решений, таких как DeepSeek или Qwen, что превращает навык работы с LLM в новую важную компетенцию разработчика.

С технической стороны эта задача включает выбор моделей, их интеграцию в рабочий процесс и настройку для максимальной эффективности. В докладе будет рассмотрено, как использовать LLM для автодополнения кода, написания тестов, создания RAG-чатов для семантического поиска по внутренней документации и генерации кода с учётом специфики корпоративных библиотек и экосистем.

Спикер