|
|
|
|
| LEADER |
02545nam a2200457 c 4500 |
| 001 |
koha001007520 |
| 008 |
231110s2023 ru ad f b 001 0 rus d |
| 020 |
|
|
|a 9785977568852
|
| 035 |
|
|
|a koha001007520
|
| 040 |
|
|
|a RU-ToGU
|b rus
|c RU-ToGU
|
| 080 |
|
|
|a 004.85
|
| 100 |
1 |
|
|a Уиндер, Фил
|
| 245 |
1 |
0 |
|a Обучение с подкреплением для реальных задач. Инженерный подход
|b [для аналитиков данных и специалистов по искусственному интеллекту] : пер. с англ.
|c Фил Уиндер
|
| 246 |
1 |
1 |
|a Reinforcement Learning...
|
| 260 |
|
|
|a Санкт-Петербург
|b БХВ-Петербург
|c 2023
|
| 300 |
|
|
|a 400 с.
|b ил., табл.
|
| 336 |
|
|
|a Текст
|
| 337 |
|
|
|a непосредственный
|
| 504 |
|
|
|a Библиогр. в конце гл.
|
| 504 |
|
|
|a Предм. указ.: с. 395-400
|
| 653 |
|
|
|a машинное обучение с подкреплением, концепции
|
| 653 |
|
|
|a искусственный интеллект
|
| 653 |
|
|
|a марковские процессы принятия решений
|
| 653 |
|
|
|a динамическое программирование
|
| 653 |
|
|
|a Монте-Карло методы
|
| 653 |
|
|
|a машинное обучение с учетом временных различий
|
| 653 |
|
|
|a Q-обучение
|
| 653 |
|
|
|a алгоритмы n-шаговые
|
| 653 |
|
|
|a Уоткинса алгоритм обучения
|
| 653 |
|
|
|a машинное обучение глубокое, архитектура
|
| 653 |
|
|
|a нейронные сети глубокие
|
| 653 |
|
|
|a нейронные Q-сети глубокие
|
| 653 |
|
|
|a оптимальная политика машинного обучения, методы градиента
|
| 653 |
|
|
|a оптимальная политика машинного обучения, методы
|
| 653 |
|
|
|a машинное обучение агента, улучшение процесса
|
| 653 |
|
|
|a RL-проект, жизненный цикл
|
| 653 |
|
|
|a машинное обучение с подкреплением, этапы
|
| 653 |
|
|
|a машинное обучение с подкреплением, применение
|
| 852 |
4 |
|
|a RU-ToGU
|n ru
|h 004.8
|i У371
|
| 999 |
|
|
|c 1007520
|d 1007520
|
| 952 |
|
|
|0 0
|1 0
|4 0
|6 0048_У371
|7 0
|a RU-ToGU
|b RU-ToGU
|c 10005
|d 2023-11-10
|g 2105.00
|o 004.8 У371
|p 13820001054018
|r 2023-11-10
|y 9
|