Substantiation of the backpropagation technique via the Hamilton—Pontryagin formalism for training nonconvex nonsmooth neural networks

dc.contributor.authorNorkin, V.I.
dc.date.accessioned2020-01-14T13:03:43Z
dc.date.available2020-01-14T13:03:43Z
dc.date.issued2019
dc.description.abstractThe paper observes the similarity between the stochastic optimal control over discrete dynamical systems and the lear ning multilayer neural networks. It focuses on contemporary deep networks with nonconvex nonsmooth loss and activation functions. The machine learning problems are treated as nonconvex nonsmooth stochastic optimization ones. As a model of nonsmooth nonconvex dependences, the so-called generalized differentiable functions are used. A method for calculating the stochastic generalized gradients of a learning quality functional for such systems is substantiated basing on the Hamilton—Pontryagin formalism. This method extends a well-known “backpropagation” machine learning technique to nonconvex nonsmooth networks. Stochastic generalized gradient learning algorithms are extended for training nonconvex nonsmooth neural networks.uk_UA
dc.description.abstractПростежується аналогія між задачами оптимального керування дискретними стохастичними динамічними системами та задачами навчання багатошарових нейронних мереж. Увага концентрується на вивченні сучасних глибоких мереж з негладкими цільовими функціоналами і зв'язками. Показано, що задачі машинного навчання можуть трактуватися як задачі стохастичного програмування, і для їхнього аналізу застосовано теорію неопуклого негладкого стохастичного програмування. Як модель негладких неопуклих залежностей використано так звані узагальнено диференційовані функції. Обґрунтовано метод обчислення стохастичних узагальнених градієнтів функціонала якості навчання для таких систем на основі формалізму Гамільтона—Понтрягіна. Цей метод узагальнює відомий метод “зворотного просування похибки” на задачі навчання негладких неопуклих мереж. Узагальнені (стохастичні) градієнтні алгоритми навчання поширено на неопуклі негладкі нейронні мережі.uk_UA
dc.description.abstractПрослеживается аналогия между задачами оптимального управления дискретными стохастическими динамическими системами и задачами обучения многослойных нейронных сетей. Внимание концентрируется на изучении современных глубоких сетей с негладкими целевыми функционалами и связями. Показано, что задачи машинного обучения могут трактоваться как задачи стохастического программирования, и для их анализа применена теория невыпуклого негладкого стохастического программирования. В качестве модели негладких невыпуклых зависимостей использованы так называемые обобщенно дифференцируемые функции. Обоснован метод вычисления стохастических обобщенных градиентов функционала качества обучения для таких систем на основе формализма Гамильтона—Понтрягина. Этот метод обобщает известный метод “обратного распространения ошибки” на задачи обучения негладких невыпуклых сетей. Обобщенные (стохастические) градиентные алгоритмы обучения распространены на невыпуклые негладкие нейронные сети.uk_UA
dc.description.sponsorshipThe work is partially supported by grant CPEA-LT-2016/10003 funded by the Norwegian Agency for International Cooperation and Quality Enhancement in Higher Education (Diku).uk_UA
dc.identifier.citationSubstantiation of the backpropagation technique via the Hamilton—Pontryagin formalism for training nonconvex nonsmooth neural networks / V.I. Norkin // Доповіді Національної академії наук України. — 2019. — № 12. — С. 19-26. — Бібліогр.: 15 назв. — англ.uk_UA
dc.identifier.issn1025-6415
dc.identifier.otherDOI: doi.org/10.15407/dopovidi2019.12.019
dc.identifier.udc517.2+519.977.58+519.8
dc.identifier.urihttps://nasplib.isofts.kiev.ua/handle/123456789/162684
dc.language.isoenuk_UA
dc.publisherВидавничий дім "Академперіодика" НАН Україниuk_UA
dc.relation.ispartofДоповіді НАН України
dc.statuspublished earlieruk_UA
dc.subjectІнформатика та кібернетикаuk_UA
dc.titleSubstantiation of the backpropagation technique via the Hamilton—Pontryagin formalism for training nonconvex nonsmooth neural networksuk_UA
dc.title.alternativeОбґрунтування за допомогою формалізму Гамільтона—Понтрягіна методу зворотного просування похибки для навчання неопуклих негладких нейронних мережuk_UA
dc.title.alternativeОбоснование посредством формализма Гамильтона—Понтрягина метода обратного распространения ошибки для обучения невыпуклых негладких нейронных сетейuk_UA
dc.typeArticleuk_UA

Файли

Оригінальний контейнер

Зараз показуємо 1 - 1 з 1
Завантаження...
Ескіз
Назва:
05-Norkin.pdf
Розмір:
107.62 KB
Формат:
Adobe Portable Document Format

Контейнер ліцензії

Зараз показуємо 1 - 1 з 1
Завантаження...
Ескіз
Назва:
license.txt
Розмір:
817 B
Формат:
Item-specific license agreed upon to submission
Опис: