Сравнение методов анализа настроений глубокого обучения, включая LSTM и машинное обучение
Материалы и методы. С целью улучшения процесса анализа семестра, организованного с использованием существующих методов и моделей, необходимо внести в него корректировки в соответствии с растущими изменениями информационных потоков и на сегодняшний день. В этом случае исследователям крайне важно и...
| Published in: | Открытое образование Т. 27, № 4. С. 60-71 |
|---|---|
| Main Author: | |
| Other Authors: | |
| Format: | Article |
| Language: | Russian |
| Subjects: | |
| Online Access: | http://vital.lib.tsu.ru/vital/access/manager/Repository/koha:001129759 Перейти в каталог НБ ТГУ |
| LEADER | 06500nab a2200373 c 4500 | ||
|---|---|---|---|
| 001 | koha001129759 | ||
| 005 | 20250116130204.0 | ||
| 007 | cr | | ||
| 008 | 240208|2023 ru s c rus d | ||
| 024 | 7 | |a 10.21686/1818-4243-2023-4-60-71 |2 doi | |
| 035 | |a koha001129759 | ||
| 040 | |a RU-ToGU |b rus |c RU-ToGU | ||
| 100 | 1 | |a Тапе, Жан Макс Хабиб |9 894285 | |
| 245 | 1 | 0 | |a Сравнение методов анализа настроений глубокого обучения, включая LSTM и машинное обучение |c Ж. М. Х. Тапе, А. А. Погуда |
| 246 | 1 | 1 | |a Comparison of deep learning sentiment analysis methods, including LSTM and machine learning |
| 336 | |a Текст | ||
| 337 | |a электронный | ||
| 504 | |a Библиогр.: 33 назв. | ||
| 520 | 3 | |a Материалы и методы. С целью улучшения процесса анализа семестра, организованного с использованием существующих методов и моделей, необходимо внести в него корректировки в соответствии с растущими изменениями информационных потоков и на сегодняшний день. В этом случае исследователям крайне важно изучить возможности обновления определённых инструментов, либо объединить их, либо разработать, чтобы адаптировать их к современным задачам, чтобы обеспечить более чёткое понимание результатов их лечения. Мы представляем сравнение нескольких моделей глубокого обучения, включая конволюционная нейронная сеть, рекуррентные нейронные сети и долговременную и кратковременную двунаправленную память, оцененных на основе различных подходов к интеграции слов, включая трансформацию двунаправленных кодирующих представлений (BERT) и ее варианты, FastText и Word2Vec. Дополнение данных проводилось с использованием подхода простого дополнения данных. В этом проекте применяются методы обработки естественного языка (ОЕЯ), глубокое обучение, а также модели - LSTM, CNN, SVM TF-IDF, adaboost, naïves bayes, а затем комбинации моделей.Результаты. Исследования позволили получить и проверить результаты моделей с помощью пользовательских обзоров и сравнить точность моделей, чтобы увидеть, какая модель имеет наибольшую точность результатами анализа, полученными с помощью моделей, и их комбинацией CNN с LSTM-моделью, но SVM с TF-IDF векторизатором оказалась наиболее эффективной для этого несбалансированного набора данных. В построенной модели результатом стали следующие показатели: ROC AUC - 0,82, точность - 0,92, F1 - 0,82, Precision - 0,82 и Recall - 0,82. Для поиска более эффективной модели можно провести дополнительные исследования и внедрение модели. Заключение. За последние годы анализ текста на естественном языке продвинулся довольно далеко вперёд, и не исключено, что в обозримом будущем подобные задачи будут полностью решены. Несколько различных моделей в ML и CNN с LSTM-моделью, но SVM с TF-IDF векторизатором оказалась наиболее эффективной для этого несбалансированного набора данных. В целом, как глубокое обучение, так и методы выбора на основе признаков могут быть использованы для решения некоторых наиболее актуальных проблем. Глубокое обучение полезно, когда наиболее значимые признаки заранее неизвестны, в то время как методы выбора на основе признаков могут помочь повысить точность и эффективность алгоритма классификации. Комбинация обоих подходов также может быть использована для дальнейшего повышения эффективности алгоритма. | |
| 653 | |a BERT, двунаправленные кодирующие представления от трансформеров | ||
| 653 | |a LSTM, сети долгой краткосрочной памяти | ||
| 653 | |a глубокое обучение (искусственный интеллект) | ||
| 653 | |a обработка естественного языка | ||
| 653 | |a TF-IDF, статистический метод | ||
| 653 | |a анализ настроений | ||
| 655 | 4 | |a статьи в журналах |9 951461 | |
| 700 | 1 | |a Погуда, Алексей Андреевич |9 82463 | |
| 773 | 0 | |t Открытое образование |d 2023 |g Т. 27, № 4. С. 60-71 |x 1818-4243 |w 0104-30060 | |
| 852 | 4 | |a RU-ToGU | |
| 856 | 4 | |u http://vital.lib.tsu.ru/vital/access/manager/Repository/koha:001129759 | |
| 856 | |y Перейти в каталог НБ ТГУ |u https://koha.lib.tsu.ru/cgi-bin/koha/opac-detail.pl?biblionumber=1129759 | ||
| 908 | |a статья | ||
| 999 | |c 1129759 |d 1129759 | ||
| 039 | |b 100 | ||
