@article{Косых_2022, title={Применение модели дистилляций знаний BERT для анализа настроений текста}, url={https://journals.vsu.ru/sait/article/view/10590}, DOI={10.17308/sait/1995-5499/2022/3/139-151}, abstractNote={<p>Увеличение сложности архитектур нейронных сетей и увеличение объема обрабатываемых данных в процессе машинного обучения ставит вопрос о необходимости применения более производительных подходов, которые позволили бы оптимизировать процесс разработки моделей классификации текста для решения задач анализа настроений. Целью работы является обучение и оптимизация нейросетевой модели-трансформера для классификации данных в рамках решения анализа настроений русскоязычного текста. В рамках научного исследования предлагается применение предварительной обученных моделей двунаправленного кодирования BERT, а также модели дистилляции знаний ruBERT-tiny для выполнения мультиклассовой классификации текста для анализа настроений пользовательского текста. Применение этапа уплотнения данных для моделей дистилляции знаний позволяет оптимизировать этап обучения моделей классификации текста. Разработана программа на языке программирования Python с использованием библиотек машинного обучения. Техническое решение позволяет апробировать предобученные модели классификации данных, на основе которых создать оптимизированные модели классификации для анализа настроений пользовательских текстов с учетом специфики предметной области.</p&gt;}, number={3}, journal={Вестник ВГУ. Серия: Системный анализ и информационные технологии}, author={Косых, Никита Евгеньевич}, year={2022}, month={ноя.}, pages={139-151} }