Метод семплювання для боротьби з ефектом зникнення градієнтів у рекурентних нейромережах
| dc.contributor.author | Чернодуб, А.М. | |
| dc.contributor.author | Новицький, Д.В. | |
| dc.date.accessioned | 2017-02-10T17:39:35Z | |
| dc.date.available | 2017-02-10T17:39:35Z | |
| dc.date.issued | 2016 | |
| dc.description.abstract | Ефект зникнення градієнтів є спільною проблемою навчання рекурентних і глибоких нейромереж. У статті розроблено метод для оцінки внеску кожного прикладу з навчальної вибірки у градієнт цільової функції навчання. Запропоновано новий універсальний метод, який дозволяє утримувати норму градієнтів у задовільних межах. Для експериментальної перевірки нашого підходу використано спеціальні синтетичні бенчмарки для тестування нейромереж на здатність виявляти довготривалі залежності. Навчена з використанням даного методу рекурентна нейромережа з одиничними затримками може знаходити залежності між подіями в часових послідовностях довжиною до 100 і більше тактів. | uk_UA |
| dc.description.abstract | Эффект исчезновения градиентов является общей проблемой обучения рекуррентных и глубоких нейросетей. В статье разработан метод для оценки вклада каждого обучающего примера из выборки в градиент целевой функции обучения. Предложен новый универсальный метод, который позволяет удерживать норму градиентов в приемлемых пределах. Для экспериментальной проверки нашего подхода использованы специальные синтетические бенчмарки для тестирования нейросетей на способность выявлять долговременные зависимости. Рекуррентная нейросеть с единичной линией задержек, обученная с использованием данного метода, может находить зависимости между событиями во временных последовательностях длиной до 100 и более тактов. | uk_UA |
| dc.description.abstract | Vanishing gradients effect is a common problem for recurrent and deep neural networks. In this paper we construct a method to estimate a contribution of each training example to the norm of the long-term components of the target functions gradient. We propose a novel universal technique that makes the norm of the gradient stay in the suitable range. To check our framework experimentally we use a special synthetic benchmarks for testing RNNs on ability to capture long-term dependencies. Our recurrent network can detect links between events in the (temporal) sequence at the range 100 and longer. | uk_UA |
| dc.identifier.citation | Метод семплювання для боротьби з ефектом зникнення градієнтів у рекурентних нейромережах / А.М. Чернодуб, Д.В. Новицький // Математичні машини і системи. — 2016. — № 2. — С. 30-43. — Бібліогр.: 26 назв. — укр. | uk_UA |
| dc.identifier.issn | 1028-9763 | |
| dc.identifier.udc | 681.513.7 | |
| dc.identifier.uri | https://nasplib.isofts.kiev.ua/handle/123456789/113598 | |
| dc.language.iso | uk | uk_UA |
| dc.publisher | Інститут проблем математичних машин і систем НАН України | uk_UA |
| dc.relation.ispartof | Математичні машини і системи | |
| dc.status | published earlier | uk_UA |
| dc.subject | Обчислювальні системи | uk_UA |
| dc.title | Метод семплювання для боротьби з ефектом зникнення градієнтів у рекурентних нейромережах | uk_UA |
| dc.title.alternative | Метод семплирования для борьбы с эффектом исчезновения градиентов в рекуррентных нейросетях | uk_UA |
| dc.title.alternative | Sampling method against to the vanishing gradients effect in recurrent neural networks | uk_UA |
| dc.type | Article | uk_UA |
Файли
Оригінальний контейнер
1 - 1 з 1
Завантаження...
- Назва:
- 02-Chernodub.pdf
- Розмір:
- 510.32 KB
- Формат:
- Adobe Portable Document Format
Контейнер ліцензії
1 - 1 з 1
Завантаження...
- Назва:
- license.txt
- Розмір:
- 817 B
- Формат:
- Item-specific license agreed upon to submission
- Опис: