Модифицированная q-нарная модель Поттса с бинаризованными синаптическими коэффициентами
Завантаження...
Дата
Назва журналу
Номер ISSN
Назва тому
Видавець
Інститут проблем штучного інтелекту МОН України та НАН України
Анотація
Практическое применение q-нарных моделей Поттса осложняется высокими требованиями к оперативной
памяти (необходимо 32N^2q^2 бит, где N – число нейронов, q – число состояний нейрона). В работе
исследуется модифицированная модель Поттса с бинаризованными синаптическими коэффициентами.
Процедура бинаризации позволяет в 32 раза уменьшить размер требуемой оперативной памяти (N^2q^2 бит) и
более чем в q раз ускорить алгоритм. Ожидалось, что бинаризация приведет к ухудшению распознающих
характеристик. Однако анализ показал неожиданные результаты: процедура бинаризации приводит к
увеличению объема нейросетевой памяти в 2 раза. Полученные результаты согласуются с проведенными
экспериментами.
Практичне застосування q-нарних моделей Поттса ускладнюється високими вимогами до оперативної пам’яті (необхідно 32N^2q^2 біт, де N – число нейронів, q – число станів нейрона). У роботі досліджується модифікована модель Поттса з бінаризованими синаптичними коефіцієнтами. Процедура бінаризації дозволяє в 32 рази зменшити розмір необхідної оперативної пам’яті (N^2q^2 біт) і більш ніж в q разів прискорити алгоритм. Очікувалося, що бінаризація призведе до погіршення розпізнавальних характеристик. Проте аналіз показав несподівані результати: процедура бінаризації приводить до збільшення об’єму нейромережної пам’яті в 2 рази. Отримані результати узгоджуються з проведеними експериментами.
Practical applications of q-state Potts models are complicated, as they require very large RAM (32N^2q^2 bits, where N is the number of neurons and q is the number of the states of a neuron). In this work we examine a modified Potts model with binarized synaptic coefficients. The procedure of binarization allows one to make the required RAM 32 times smaller (N^2q^2 bits), and the algorithm more than q times faster. One would expect that the binarization worsens the recognizing properties. However, our analysis shows an unexpected result: the binarization procedure leads to the increase of the storage capacity by a factor of 2. The obtained results are in a good agreement with the results of computer simulations.
Практичне застосування q-нарних моделей Поттса ускладнюється високими вимогами до оперативної пам’яті (необхідно 32N^2q^2 біт, де N – число нейронів, q – число станів нейрона). У роботі досліджується модифікована модель Поттса з бінаризованими синаптичними коефіцієнтами. Процедура бінаризації дозволяє в 32 рази зменшити розмір необхідної оперативної пам’яті (N^2q^2 біт) і більш ніж в q разів прискорити алгоритм. Очікувалося, що бінаризація призведе до погіршення розпізнавальних характеристик. Проте аналіз показав несподівані результати: процедура бінаризації приводить до збільшення об’єму нейромережної пам’яті в 2 рази. Отримані результати узгоджуються з проведеними експериментами.
Practical applications of q-state Potts models are complicated, as they require very large RAM (32N^2q^2 bits, where N is the number of neurons and q is the number of the states of a neuron). In this work we examine a modified Potts model with binarized synaptic coefficients. The procedure of binarization allows one to make the required RAM 32 times smaller (N^2q^2 bits), and the algorithm more than q times faster. One would expect that the binarization worsens the recognizing properties. However, our analysis shows an unexpected result: the binarization procedure leads to the increase of the storage capacity by a factor of 2. The obtained results are in a good agreement with the results of computer simulations.
Опис
Теми
Нейросетевые и нечеткие системы
Цитування
Модифицированная q-нарная модель Поттса с бинаризованными синаптическими коэффициентами / Б.В. Крыжановский, В.М. Крыжановский // Штучний інтелект. — 2008. — № 3. — С. 540-547. — Бібліогр.: 13 назв. — рос.