Лемана Тех дополнила экосистему поддержки IT-продуктов моделями больших языков с технологией RAG для обработки обращений в Service Desk. По информации компании, классические решения машинного обучения перестали покрывать растущий объем запросов пользователей.
Новая система интегрирует LLM с RAG для генерации ответов на основе внутренней базы знаний Wiki. По данным Лемана Тех, это позволяет обеспечить более точные и релевантные ответы пользователям без необходимости переписывания моделей под каждый сценарий.
Система также реализует функцию интеллектуальной эскалации сложных вопросов к специалистам поддержки. Компания подчеркивает, что решение сохраняет роль человека в принятии критических решений и обработке нестандартных ситуаций.
Проект разработан Центром компетенций сопровождения IT-продуктов Лемана Тех. По данным компании, система прошла апробацию и представлена на конференции AiConf.
Аналитики отмечают, что интеграция LLM с RAG в системы поддержки позволяет снизить нагрузку на специалистов и улучшить время ответа на типовые запросы. Вместе с тем эксперты указывают на необходимость постоянного обновления базы знаний для актуальности ответов.
Источник: Habr AI