Разработка и оценка RAG-системы для анализа семантических связей
Аннотация
В статье представлена разработка и оценка системы для автоматического определения семантической близости текстов в рамках специализированных предметных областей на основе метода RAG (Retrieval Augmented Generation). Предлагаемое решение интегрирует большие языковые модели (Llama, Gemma) с векторными базами данных (Milvus) для извлечения контекстно-релевантной информации. Основная задача системы — бинарная классификация пар текстовых описаний («целевой показатель — мероприятие») с целью выявления их смысловой связи. Экспериментальная часть включает сравнительный анализ эффективности различных конфигураций моделей и промптов. Наилучший результат продемонстрировала модель Llama-3.1-8B-Instruct, достигшая F1-меры 0.9 при использовании RAG-подхода. Важным элементом системы стала оптимизация генеративной части моделей за счет 4-битной квантизации, что позволило снизить вычислительные затраты без значительной потери точности. Показано, что включение в промпты релевантных примеров из векторной базы данных RAG-системы повышает точность классификации на 15–20 % по сравнению с базовыми настройками. Результаты подтверждают, что RAG-система эффективно адаптируется к узкоспециализированным текстам, таким как нормативные документы или стратегические планы. Практическая значимость работы заключается в возможности внедрения системы в процессы управления организационными мероприятиями, где критична проверка согласованности формулировок и выявление противоречий. Перспективы дальнейших исследований связаны с интеграцией современных языковых моделей (Qwen, DeepSeek), оптимизацией методов индексации в векторных хранилищах и совершенствованием шаблонов промптов.
Скачивания
Литература
2. Devlin J. [et al.] (2019) BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. Proceedings of NAACL. P. 4171–4186. DOI
3. Johnson J., Douze M. and Jégou H. (2019) Billion-scale similarity search with GPUs. IEEE Transactions on Big Data. 7(4). P. 535–547. DOI
4. Lewis P. [et al.] (2020) Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks. Advances in Neural Information Processing Systems. 33. P. 9459–9474. DOI
5. Raffel C. [et al.] (2020) Exploring the Limits of Transfer Learning with a Unified Text-toText Transformer. Journal of Machine Learning Research. 21(140). P. 1–67. DOI
6. Reimers N. and Gurevych I. (2019) Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks. Proceedings of EMNLP. P. 3982–3992. DOI
7. Touvron H. [et al.] (2023) Llama: Open and Efficient Foundation Language Models. arXiv preprint. arXiv:2302.13971.
8. Google DeepMind (2024) Gemma: Open Models Based on Gemini Research and Technology. 15p.
9. Vaswani A. [et al.] (2017) Attention Is All You Need. Advances in Neural Information Processing Systems. 30. P. 5998–6008. DOI
10. Karpukhin V. [et al.] (2020) Dense Passage Retrieval for Open-Domain Question Answering. Proceedings of EMNLP. P. 6769–6781. DOI
11. Tomashevskaya V. S. and Yakovlev D. A. (2021) Methods of Processing Unstructured Data. Russian Technological Journal. 9(1). P. 7–17. (in Russian) DOI
- Авторы сохраняют за собой авторские права и предоставляют журналу право первой публикации работы, которая по истечении 6 месяцев после публикации автоматически лицензируется на условиях Creative Commons Attribution License , которая позволяет другим распространять данную работу с обязательным сохранением ссылок на авторов оригинальной работы и оригинальную публикацию в этом журнале.
- Авторы имеют право размещать их работу в сети Интернет (например в институтском хранилище или персональном сайте) до и во время процесса рассмотрения ее данным журналом, так как это может привести к продуктивному обсуждению и большему количеству ссылок на данную работу (См. The Effect of Open Access).













