Применение вычислительных сред для ускорения рекуррентных нейронных сетей

Одним из основных факторов, ограничивающих применение современных алгоритмов машинного обучения в технических системах, является несовершенство используемого аппаратного обеспечения. Особенно остро проблема стоит для крупных нейронных сетей в маломощных и автономных системах, имеющих жесткие огран...

Full description

Bibliographic Details
Published in:Цифровая экономика № 1. С. 27-35
Main Author: Шатравин, Владислав
Other Authors: Шашев, Дмитрий Вадимович
Format: Article
Language:Russian
Subjects:
Online Access:http://vital.lib.tsu.ru/vital/access/manager/Repository/koha:001016948
Перейти в каталог НБ ТГУ
LEADER 04496nab a2200337 c 4500
001 koha001016948
005 20240112145903.0
007 cr |
008 240110|2023 ru s c rus d
024 7 |a 10.34706/DE-2023-01-04  |2 doi 
035 |a koha001016948 
040 |a RU-ToGU  |b rus  |c RU-ToGU 
100 1 |a Шатравин, Владислав  |9 892688 
245 1 0 |a Применение вычислительных сред для ускорения рекуррентных нейронных сетей  |c В. Шатравин, Д. В. Шашев 
336 |a Текст 
337 |a электронный 
504 |a Библиогр.: 11 назв. 
520 3 |a Одним из основных факторов, ограничивающих применение современных алгоритмов машинного обучения в технических системах, является несовершенство используемого аппаратного обеспечения. Особенно остро проблема стоит для крупных нейронных сетей в маломощных и автономных системах, имеющих жесткие ограничения к массе и энергопотреблению. Большинство предлагаемых на сегодняшний день аппаратных ускорителей нейронных сетей либо имеют высокое энергопотребление и массу, либо поддерживают лишь очень ограниченное множество алгоритмов. Решением этой проблемы может быть применение перестраиваемых аппаратных ускорителей, которые поддерживают динамическую настройку на реализацию требуемых алгоритмов. Одним из способов построения таких ускорителей могут быть решения на основе концепции перестраиваемых вычислительных сред (ПВС). В данной работе представлена реализация рекуррентных архитектур нейронных сетей на примере сети Хопфилда и сети долгой краткосрочной памяти (LSTM) на ускорителях, построенных на основе ПВС. Приведены формулы оценки быстродействия разработанных моделей на основе результатов симуляций на FPGA. Полученные оценки показывают высокое быстродействие предложенных моделей в сравнении с существующими аналогами при значительно большей занимаемой на полупроводнике площади. Согласно оценкам, расчёт одного шага LSTM сети с 25 скрытыми нейронами занимает 223 нс. Результаты позволяют сделать вывод о большом потенциале применения перестраиваемых сред для реализации рекуррентных сетей и необходимость дальнейших оптимизаций предложенных моделей. 
653 |a рекуррентные нейронные сети 
653 |a LSTM, сети долгой краткосрочной памяти 
653 |a перестраиваемые вычислительные среды 
653 |a аппаратные ускорители реконфигурируемые 
655 4 |a статьи в журналах  |9 918209 
700 1 |a Шашев, Дмитрий Вадимович  |9 96072 
773 0 |t Цифровая экономика  |d 2023  |g  № 1. С. 27-35  |x 2686-956X 
852 4 |a RU-ToGU 
856 4 |u http://vital.lib.tsu.ru/vital/access/manager/Repository/koha:001016948 
856 |y Перейти в каталог НБ ТГУ  |u https://koha.lib.tsu.ru/cgi-bin/koha/opac-detail.pl?biblionumber=1016948 
908 |a статья 
999 |c 1016948  |d 1016948 
039 |b 100