что является требуемой ассоциацией. Затем,


Далее прикладывая входной вектор А = (1,0,0), вычисляем выходной вектор О O = A1t W = (1,0,0) x 1 –1 3 = (–1,–1,3) –1 3 –1 3 –1 –1 Используя пороговое правило bi = 1, если oi > 0, bi = 0, если oi < 0, bi = 0, не изменяется, если oi = 0

вычисляем B’1 = (0,0,1), что является требуемой ассоциацией. Затем, подавая вектор В’1 через обратную связь на вход первого слоя к Wt получаем O = B’1 Wt = (0,0,1) x 1 –1 3 = (3,–1,–1) –1 3 –1 3 –1 –1 что дает значение (1,0,0) после применения пороговой функции, образуя величину вектора A1. Этот пример показывает, как входной вектор A с использованием матрицы W производит выходной вектор B. В свою очередь вектор B с использованием матрицы Wt производит вектор A, таким образом в системе формируется устойчивое состояние и резонанс. ДАП обладает способностью к обобщению. Например, если незавершенный или частично искаженный вектор подается в качестве A, сеть имеет тенденцию к выработке запомненного вектора B, который в свою очередь стремится исправить ошибки в A. Возможно, для этого потребуется несколько проходов, но сеть сходится к воспроизведению ближайшего запомненного образа. Системы с обратной связью могут иметь тенденцию к колебаниям; это означает, что они могут переходить от состояния к состоянию, никогда не достигая стабильности. В [9] доказано, что все ДАП безусловно стабильны при любых значениях весов сети. Это важное свойство возникает из отношения транспонирования между двумя весовыми матрицами и означает, что любой набор ассоциаций может быть изучен без риска возникновения нестабильности. Существует взаимосвязь между ДАП и рассмотренными в гл. 6 сетями Хопфилда. Если весовая матрица W является квадратной и симметричной, то W=Wt. В этом случае, если слои 1 и 2 являются одним и тем же набором нейронов, ДАП превращается в автоассоциативную сеть Хопфилда.
Содержание раздела