Одним из путей повышения производительности вычислительных устройств является применение систем остаточных классов (СОК), из-за их способности поддерживать высокоскоростную арифметику при параллельной обработке данных. Система остаточных классов представляет собой такую систему, в которой целое положительное число представляется в виде набора остатков по выбранным основаниям
N = (a1, a2,…, an), an
º
N (mod pn), n = 1, 2,…, k, (1)
где pn – основания системы остаточных классов.
Система остаточных классов является альтернативой позиционной системе счисления, обладающая максимальным распараллеливанием выполнения арифметических операций. В качестве вычислительного средства для реализации вычислений в СОК может быть использован нейрокомпьютер (НК) как мощное вычислительное средство с массовым параллелизмом, поэтому возникает задача сопряжения модулярных и позиционных вычислительных устройств на основе нейронной сети (НС). Нейронная сеть является совокупностью элементов (нейронов), соединенных некоторым образом так, чтобы между ними обеспечивалось взаимодействие и представляет собой высокопараллельную динамическую систему. Нейроны представляют собой простые процессоры, вычислительные возможности которых обычно ограничиваются некоторым правилом комбинирования входных сигналов и правилом активизации, позволяющим вычислить выходной сигнал по совокупности входных сигналов. Выходной сигнал элемента может посылаться другим элементам по взвешенным связям, с каждой из которых связан весовой коэффициент или вес. В зависимости от значения весового коэффициента передаваемый сигнал или усиливается, или подавляется.
В статье рассмотрен общий подход применению НС Хэмминга для преобразования чисел, представленных в СОК, в позиционную систему счисления. Нейронная сеть Хэмминга (рис. 1) представляет собой многослойную сеть с обратными связями между отдельными слоями. Сеть Хэмминга применяется в качестве ассоциативной памяти. При распознавании образов она использует в качестве меры близости расстояние Хэмминга. Хэммингово расстояние представляет собой пример меры сходства или, вернее, различия, первоначально введенной для бинарных функций в диадном пространстве. Она применима для сравнения любых упорядоченных наборов, принимающих дискретные значения и, вероятно, является наилучшей из известных мер сходства между цифровыми кодами. Для бинарных последовательностей х = (x1, …, хn) и х’ = (x’1, …. х’n) хэммингово расстояние можно определить:
. (2)
Здесь функция bc{•} определяется как число элементов набора {•}, принимающих значение логической «1».
Рис. 1. Архитектура нейронной сети Хэмминга
Сеть Хэмминга является многослойной, состоит из входного, скрытого и выходного слоев нейронов. Скрытый и выходной слои содержат по K нейронов, где K – число эталонов. Нейроны скрытого слоя n синапсами соединены с выходами нейронов входного слоя сети. Выходы нейронов выходного слоя связаны с входами остальных нейронов этого слоя отрицательными обратными связями. Единственная положительная обратная связь подается с выхода для каждого нейрона выходного слоя на его же вход.
Для иллюстрации работы НС рассмотрим преобразование чисел, представленных в СОК, в позиционный код.
Преобразование числа А, заданного в СОК, в ПСС можно осуществить в соответствии с выражением:
А = ()mod P, (3)
где ai – значение разрядов числа А по модулю, pi, Bi – ортогональные базисы системы, P – диапазон представимых чисел определится как:
P = p1 × p2 ×…× pn, (4)
где p1, p2 ,…, pn – основания СОК.
Преобразуемое число А в двоичном коде подается на модулярную НС, представленную основаниями СОК (рис. 2). Число нейронов скрытого и выходного слоя будет определяться основаниями системы.
На этапе настройки сети устанавливаются следующие значения весов нейронов скрытого слоя и порога их активационной функции:
wik = , qk= n/2, (5)
где хki
– i-й компонент k-го эталона; i = 1 …n, k = 1 …К.
Коэффициенты отрицательных обратных связей нейронов выходного слоя задают равными некоторой величине из интервала 0 < e
< 1/К, а коэффициенты положительной обратной связи – +1 .
Рис. 2. Представление чисел в СОК на основе унитарного кода
На нейроны входного слоя подается неизвестный образ X = {xi}, i = 1…n. На их выходах формируются следующие значения (верхний индекс указывает номер слоя):
y(1)k = s(1)k = wik хi +qk, k =1…K. (6)
В соответствии с этим устанавливаются значения на выходах нейронов выходного слоя:
y(2)k = f [y(1)k ], k =1…K. (7)
Производится итерационная процедура расчета выходных значений нейронной сети. В результате новой (t+1)-й итерации определяются новые состояния нейронов выходного слоя:
s(2)k(t+1) = y(2)k(t) – e
y(2)j(t), k =1…К, (8)
y(2)j(t+1) = f [s(2)k(t+1)], k =1…К.
Процесс происходит до тех пор, пока только один нейронный элемент сети не останется с положительной активностью. Такой нейронный элемент является победителем в конкурентной борьбе. Выходной слой сети Хэмминга преобразует выходную активность нейрона – победителя в единичное значение, а остальные нейроны – в нулевое значение. Для этого нейроны выходного слоя используют пороговую функцию активации. Номер нейрона-победителя идентифицирует распознанный образ. Число образов, хранимых в сети, равняется числу нейронных элементов выходного слоя.
Рис. 3. Схема преобразователя кода из системы остаточных классов в позиционный код на основе применения НС Хэмминга
Для перевода числа А в соответствии с зависимостью (3) необходимо возможные значения (aiBi) mod Р записать в память. По адресам, представляющим собой ai, соответствующие значения (aiBi) mod Р выбираются из памяти и суммируются на двоичном сумматоре, работающем по модулю Р.
В качестве сумматора, работающего по модулю Р, может использоваться сумматор как комбинационного, так и накапливающего типа. Схема преобразователя, работающего в соответствии с изложенным выше принципом, представлена на рисунке 3.
Выходы НС представляют собой значения ai. Из ПЗУ
выбираются и суммируются на сумматоре величины (aiBi) mod Р. На выходе сумматора образуется позиционный код.
В заключение можно сделать вывод: сеть Хэмминга позволяет просто и эффективно решить задачу автоассоциативной памяти – воссоздание образов по неполной и искаженной информации. Невысокая емкость сетей (число запоминаемых образов) объясняется тем, что сети не просто запоминают образы, а позволяют проводить их обобщение, например, с помощью сети Хэмминга возможна классификация по критерию максимального правдоподобия.
Библиографический список
- Червяков Н.И., Горденко Д.В. Нейронная сеть для округления и масштабирования чисел, представленных в системе остаточных классов/Патент на изобретение RUS 2271570 26.05.2003.
- Горденко Д.В., Токарева Г.В. Принципы построения модулярных отказоустойчивых специализированных процессоров для обработки экономической информации/Актуальные проблемы развития агробизнеса в условиях модернизации экономики. 2012. С. 71-77.
- Горденко Д.В., Горденко Н.В., Павленко Н.А., Павлюк Д.Н., Ткачук Р.В. Коррекция ошибок в системе остаточных классов с минимальной временной сложностью на основе метода расширения оснований/Известия высших учебных заведений. Северо-Кавказский регион. Серия: Технические науки. 2007. № 4. С. 12-14.
- Червяков Н.И., Горденко Д.В., Сивоплясов Д.В., Ткачук Р.В. Модулярный сопроцессор для обработки биометрической информации/Известия Южного федерального университета. Технические науки. 2003. Т. 33. № 4. С. 240-242.
- Горденко Д.В., Резеньков Д.Н., Яйлаханов С.В. Высоконадежные комплексы и средства связи на нейросетевых элементах. Москва, 2010.
- Горденко Д.В., Пономаренко М.В. применение an-кодов для коррекции ошибок в модулярных нейрокомпьютерах в области экономики./ Актуальные проблемы развития агробизнеса в условиях модернизации экономики. 2012. С. 78-82.
- Ткачук Р.В., Горденко Д.В., Павлюк Д.Н., Малофей А.О. Активная безопасность на основе криптографического мультинейропроцессора обработки данных./ Известия высших учебных заведений. Северо-Кавказский регион. Серия: Технические науки. 2007. № 4. С. 17-18.
- Горденко Д.В., Горденко Н.В. Локализация ошибок в устройствах цифровой обработки сигналов на основе алгебры полиномов/ Вестник СевКавГТИ. 2009. № 9. С. 56-61.
- Горденко Д.В., Резеньков Д.Н., Сапронов С.В. Нормированный след полинома в процедурах поиска и локализации ошибок в модулярных кодах/ Вестник СевКавГТИ. 2010. № 10. С. 72-73.
- Горденко Д.В., Горденко Н.В. нейронная реализация локализации ошибок в модулярном коде./ Исследования в области естественных наук. 2013. № 7 (19). С. 1.
- Горденко Д.В. Принципы построения модулярных отказоустойчивых специализированных процессоров для обработки информации./ Исследования в области естественных наук. 2013. № 8 (20). С. 1.