Сравнение методов анализа настроений глубокого обучения, включая LSTM и машинное обучение

Материалы и методы. С целью улучшения процесса анализа семестра, организованного с использованием существующих методов и моделей, необходимо внести в него корректировки в соответствии с растущими изменениями информационных потоков и на сегодняшний день. В этом случае исследователям крайне важно изуч...

Full description

Bibliographic Details
Published in:Открытое образование Т. 27, № 4. С. 60-71
Main Author: Тапе, Жан Макс Хабиб
Other Authors: Погуда, Алексей Андреевич
Format: Article
Language:Russian
Subjects:
Online Access:http://vital.lib.tsu.ru/vital/access/manager/Repository/koha:001129759
LEADER 06261nab a2200349 c 4500
001 koha001129759
005 20250116130204.0
007 cr |
008 240208|2023 ru s c rus d
024 7 |a 10.21686/1818-4243-2023-4-60-71  |2 doi 
035 |a koha001129759 
040 |a RU-ToGU  |b rus  |c RU-ToGU 
100 1 |a Тапе, Жан Макс Хабиб 
245 1 0 |a Сравнение методов анализа настроений глубокого обучения, включая LSTM и машинное обучение  |c Ж. М. Х. Тапе, А. А. Погуда 
246 1 1 |a Comparison of deep learning sentiment analysis methods, including LSTM and machine learning 
336 |a Текст 
337 |a электронный 
504 |a Библиогр.: 33 назв. 
520 3 |a Материалы и методы. С целью улучшения процесса анализа семестра, организованного с использованием существующих методов и моделей, необходимо внести в него корректировки в соответствии с растущими изменениями информационных потоков и на сегодняшний день. В этом случае исследователям крайне важно изучить возможности обновления определённых инструментов, либо объединить их, либо разработать, чтобы адаптировать их к современным задачам, чтобы обеспечить более чёткое понимание результатов их лечения. Мы представляем сравнение нескольких моделей глубокого обучения, включая конволюционная нейронная сеть, рекуррентные нейронные сети и долговременную и кратковременную двунаправленную память, оцененных на основе различных подходов к интеграции слов, включая трансформацию двунаправленных кодирующих представлений (BERT) и ее варианты, FastText и Word2Vec. Дополнение данных проводилось с использованием подхода простого дополнения данных. В этом проекте применяются методы обработки естественного языка (ОЕЯ), глубокое обучение, а также модели - LSTM, CNN, SVM TF-IDF, adaboost, naïves bayes, а затем комбинации моделей.Результаты. Исследования позволили получить и проверить результаты моделей с помощью пользовательских обзоров и сравнить точность моделей, чтобы увидеть, какая модель имеет наибольшую точность результатами анализа, полученными с помощью моделей, и их комбинацией CNN с LSTM-моделью, но SVM с TF-IDF векторизатором оказалась наиболее эффективной для этого несбалансированного набора данных. В построенной модели результатом стали следующие показатели: ROC AUC - 0,82, точность - 0,92, F1 - 0,82, Precision - 0,82 и Recall - 0,82. Для поиска более эффективной модели можно провести дополнительные исследования и внедрение модели. Заключение. За последние годы анализ текста на естественном языке продвинулся довольно далеко вперёд, и не исключено, что в обозримом будущем подобные задачи будут полностью решены. Несколько различных моделей в ML и CNN с LSTM-моделью, но SVM с TF-IDF векторизатором оказалась наиболее эффективной для этого несбалансированного набора данных. В целом, как глубокое обучение, так и методы выбора на основе признаков могут быть использованы для решения некоторых наиболее актуальных проблем. Глубокое обучение полезно, когда наиболее значимые признаки заранее неизвестны, в то время как методы выбора на основе признаков могут помочь повысить точность и эффективность алгоритма классификации. Комбинация обоих подходов также может быть использована для дальнейшего повышения эффективности алгоритма. 
653 |a BERT, двунаправленные кодирующие представления от трансформеров 
653 |a LSTM, сети долгой краткосрочной памяти 
653 |a глубокое обучение (искусственный интеллект) 
653 |a обработка естественного языка 
653 |a TF-IDF, статистический метод 
653 |a анализ настроений 
655 4 |a статьи в журналах 
700 1 |a Погуда, Алексей Андреевич 
773 0 |t Открытое образование  |d 2023  |g Т. 27, № 4. С. 60-71  |x 1818-4243  |w 0104-30060 
852 4 |a RU-ToGU 
856 4 |u http://vital.lib.tsu.ru/vital/access/manager/Repository/koha:001129759 
908 |a статья 
999 |c 1129759  |d 1129759