Способы обучения в двоичных системах
Изобретение относится к обучаемым двоичным системам. Технический результат заключается в упрощении и повышении быстродействия. Согласно изобретению способы обучения в двоичных системах осуществляются посредством модифицирования подключенных состояний схемы в каждом элементарном двоичном вентиле в двоичных объединенных логических и последовательностных схемах, состоящих из элементарных двоичных вентилей, таких как вентили И, ИЛИ, НЕ, НЕ-И, НЕ-ИЛИ и ИСКЛЮЧАЮЩЕЕ ИЛИ. Путем соответствующего применения теории псевдонейрона и теории псевдопотенциальной энергии возможно добиться заданных эффектов обучения за очень короткий период. Осуществление способов обучения в обычном компьютере с помощью цифрового оборудования не вызывает затруднений и может широкого применяться в таких областях, как обработка изображения, обработка речи или редакционная обработка. 8 с. и 12 з.п.ф-лы, 43 ил.
Данное изобретение относится к обучаемым двоичным системам.
До настоящего времени обучение в известных нейронных сетях выполняют путем модифицирования каждого веса процесса и порога каждого нейрона. Но поскольку действия указанных весов и порогов требуют усложненной аппаратуры в большом объеме, такой как сумматоры и умножители, и им требуется значительное время работы, реализовать крупногабаритную аппаратуру было трудно. Данное изобретение разработано ввиду указанного недостатка, и объектом данного изобретения является обеспечение способов обучения в двоичных системах путем модифицирования подключенных состояний схемы в каждой элементарной двоичной схеме в двоичных комбинированных логических и последовательностных схемах, состоящих из элементарных двоичных вентилей, таких как вентили И, ИЛИ, НЕ, НЕ-И, НЕ-ИЛИ и ИСКЛЮЧАЮЩЕЕ ИЛИ. Сущность изобретения Для осуществления указанного объекта изобретения в способах обучения в двоичных системах согласно данному изобретению обучение выполняют при подключенных состояниях, в которых первый двоичный вентиль подключают ко второму двоичному вентилю посредством выбора любого из следующих четырех подключенных состояний: 1) напрямую-подключенное; 2) подключенное через инвертор; 3) подключенное к входному сигналу второго вентиля с двоичной 1; 4) подключение к входному сигналу второго вентиля с двоичным 0. Энергии, иллюстрирующие подключающие состояния с высокими-низкими порядками, изображены на фиг. 1. Это обучение осуществляют модифицированием псевдопотенциальных энергий, выражающих указанные выше подключающие состояния. Модифицирование псевдопотенциальных энергий, иллюстрирующих упомянутые подключенные состояния, выполняют в соответствии с изображением на фиг. 2. Упомянутую двоичную объединенную логическую схему конструируют с подключениями между элементарными двоичными вентилями, такими как вентили И, ИЛИ, НЕ, НЕ-И, НЕ-ИЛИ и ИСКЛЮЧАЮЩЕЕ ИЛИ, изображенными на фиг. 3. Упомянутые последовательностные схемы состоят из комбинированной схемы и запоминающей схемы, и подключение между ними осуществляют в соответствии с изображением на фиг. 4, а комбинированную схему конструируют посредством элементарных двоичных вентилей, таких как вентили И, ИЛИ, НЕ, НЕ-И, НЕ-ИЛИ и ИСКЛЮЧАЮЩЕЕ ИЛИ. Эти способы обучения также отличаются тем, что упомянутые подключенные состояния реализуют с помощью нейронов. Эти способы обучения еще также отличаются тем, что обучение осуществляют модифицированием весов псевдонейронов и порогов. В этих способах обучения модифицирование весов нейронов W и порогов

Фиг. 3 - блок-схема комбинационной сети;
Фиг. 4 - блок-схема последовательностной сети;
Фиг. 5 - блок-схема сети И-ИЛИ;
Фиг. 6 - блок-схема сети ИЛИ-И;
Фиг. 7 - блок-схема сети вентилей НЕ-И;
Фиг. 8 - блок-схема сети вентилей НЕ-ИЛИ;
Фиг. 9 - блок-схема сети вентилей исключающего ИЛИ;
Фиг. 10 - истинностная таблица примеров двуместной функции;
Фиг. 11 - карта Карно для примеров двуместной функции;
Фиг. 12 - логическая схема примеров двуместной функции;
Фиг. 13 - схема пороговой функции и модели псевдонейрона;
Фиг. 14 - выражение состояния подключения с псевдонейроном;
Фиг. 15 - сеть И-ИЛИ одного выходного сигнала с псевдонейроном;
Фиг. 16 - непрерывная функция значений истинности, аппроксимированная к вентилю ИЛИ;
Фиг. 17 - непрерывная функция значений истинности, аппроксимированная к вентилю И;
Фиг. 18 - истинностная таблица сигналов обучения;
Фиг. 19 - истинностная таблица сигналов обучения;
Фиг. 20 - карта Карно корректировки порога


Фиг. 21 - назначение состояний подключения псевдонейроном;
Фиг. 22 - карта Карно выходного сигнала псевдонейрона (Yij) с входным сигналом (Xj) и назначением состояния (q3, q2, q1)
Фиг. 23 - схемное выполнение алгоритма обучения;
Фиг. 24 (а) - схема перехода состояния обучения порога


Фиг. 24 (б) - схема перехода состояния обучения веса

Фиг. 25 (а) - таблица перехода состояния обучения порога;
Фиг. 25 (б) - таблица перехода состояния обучения веса;
Фиг. 26 - истинностная таблица для схемы обучения порога;
Фиг. 27 - истинностная таблица для схемы обучения веса;
Фиг. 28 - истинностная таблица схем модифицирования веса и порога;
Фиг. 29 - карта Карно для q'3;
Фиг. 30 - карта Карно для q'2;
Фиг. 31 - карта Карно для q'1;
Фиг. 32 - схема модифицирования с помощью комбинационной сети;
Фиг. 33 - схема модифицирования с помощью последовательностной сети;
Фиг. 34 - истинностная таблица подключающей схемы псевдонейрона;
Фиг. 35 - схема подключения псевдонейрона;
Фиг. 36 - блок-схема полной схемы обучения;
Фиг. 37 - истинностная таблица связывающей функции;
Фиг. 38 - схема алгоритма обучения с помощью способа псевдопотенциальной энергии;
Фиг. 39 - истинностная таблица схемы обучения состояния подключения;
Фиг. 40 - схема модифицирования обучения с помощью последовательностной сети;
Фиг. 41 - схема подключения;
Фиг. 42 - блок-схема полной схемы обучения с помощью способа псевдопотенциальной энергии;
Фиг. 43 - обучение в последовательностной сети. ПОДРОБНОЕ ОПИСАНИЕ ИЗОБРЕТЕНИЯ
Предпочтительное осуществление способов обучения в двоичных системах согласно данному изобретению ниже излагается подробно в качестве примера относительно логических схем, состоящих из слоя И и слоя ИЛИ согласно изображению на фиг. 5. 1. Подключенные состояния
Сначала следует описание подключенных состояний в осуществлении данного изобретения. При составлении двоичных систем любую логическую функцию выражают в виде логической суммы (состоящей из схемы И-ИЛИ в соответствии с изображением на фиг. 5). Например, логическую функцию фиг. 10 выражают в Ур. (2) упрощением карты Карно, изображенной на фиг. 11.

Логическую функцию Ур. (2) выражают в блок-схеме фиг. 12 с применением сети И-ИЛИ. При этом подключающие состояния между входным слоем и слоем И определяют в любом одном из следующих четырех подключенных состояний согласно логической функции, а именно:
(1) Входной сигнал Xi включают в логический терм Иi (напр., подобно тому, как X2, изображенный на фиг. 12, включают и в И1, и в И2, X2 подключают напрямую);
(2) Отрицание входного сигнала Xi включают в логический терм Иi (например, входной сигнал X3 подключают к И2 через инвертор);
(3) Входной сигнал Xi и отрицание входного сигнала Xi не включают логический терм произведения Иj (например, между X3 и И1 подключения нет. То есть, входной сигнал от X3 к И1 обычно подключают к двоичной 1);
(4) Тот или иной входной сигнал обычно подключают к вентилю И с двоичным 0. Соответственно, любую логическую функцию, имеющую n переменных, можно реализовать с сетью И-ИЛИ, состоящей из максимального числа 2n-1+1 вентилей И. Подключения между входным слоем и слоем И реализуют применением любого одного из числа указанных выше подключений. 2. Выражение Псевдонейроном
Упомянутые подключенные состояния можно выразить псевдонейроном (далее - "ПН"). Подключенные состояния между входными сигналами и выходными сигналами в ПН выражают пороговой функцией, изображенной в Ур. (3) или Ур. (4).


Где: Xi = i-й входной сигнал;
Yij = выходной сигнал ij-го псевдонейрона;
Wij = весовой множитель входного сигнала Хi в ij-й псевдонейрон;



Алгоритм обучения для подключенных состояний между входным слоем и слоем И в двоичной системе выводят следующим образом. В отношении сети, изображенной на фиг. 5, нужные выходные сигналы, или преподавательские сигналы, рассматривают как T1, T2 _ _ _ Tm для данных входных сигналов X1, X2 _ _ _ Xn, а выходные сигналы сети фиг. 5 рассматривают как Z1, Z2 _ _ _ Zm, а интеграл вероятности ошибки E определяют как сумму квадратов согласно Ур. (5).

Обучение выполняют таким образом, что ошибка будет уменьшаться изменением весов (подключенных состояний) между входным слоем и слоем ПН, и порогами ПНов (все прочие подключения фиксированные). При изменении весов W и порогов





В Ур. (6)







Здесь, поскольку интеграл вероятности ошибки выражен в Ур. (8)


Далее Ур. (10) выводят как Z = ИЛИ.

Соответственно, каждый вентиль ИЛИ аппроксимируют следующими непрерывными функциями Ур. (11).

На фиг. 11 М является максимумом входного сигнала, исключающего Иj
То есть, М = Мах (Иi, i = 1, 2, ---, i

Это отношение выражено на фиг. 16. Соответственно, эти отношения выражают с помощью Ур. (12).

Аналогичным образом можно произвести аппроксимацию, как изображено в Ур. (13), в каждом вентиле И, обращенном к каждому входному сигналу.

Здесь m является минимумом всех входных сигналов, исключающих YIj. То есть,
m = Min (Yik, k = 1, 2, ---, k

Это отношение выражают на фиг. 17. Соответственно, это отношение выражают с помощью уравнения Ур. (14).

Наконец, если Yij выразить согласно Ур. (15),

тогда Ур. (16) выводят следующим образом.

поскольку f'(x)






и








В приводимых выше уравнениях, представляющих






(1) Аппаратурное Выполнение в Алгоритмах Обучения
Как указано выше, алгоритм обучения состоит только из логических операций между входными, выходными сигналами, преподавательскими сигналами, выходными сигналами из слоев И и выходными сигналами из ПНов и дает сигнал обучения относительно ПНов, чтобы увеличивать, или уменьшать, или сохранять соответствующие веса и пороги. При этом, поскольку имеется три состояния, а именно: увеличение, уменьшение или сохранение, тогда если сигналом сохранения будет q = HP (высокое полное сопротивление), то увеличивающие и уменьшающие сигналы соответственно будут выражены как q = 1 и q = 0. То есть сигналы обучения для весов и порогов, определяемых Ур. (17) и (18), можно выразить в виде истинностной таблицы, изображенной на фиг. 18 и 19.


Поскольку эти истинностные таблицы (фиг. 18 и 19) можно выразить в виде карты Карно, тогда карту Карно, включая даже безразличные термы, можно выразить с помощью фиг. 20. Из этих истинностных таблиц можно вывести логическую функцию сигналов обучения. Соответственно, модифицирования весов и порогов определяют входным сигналом Xi, выходным сигналом Z, выходным сигналом из ПН (Yij), Иj и преподавательским сигналом Т. Тогда распределением подключенных условий (8 условий) ПНа, изображенного на фиг. 14, среди изображенных на фиг. 21 состояний посредством 3 разрядов (q3, q2, q1) логическую функцию, состоящую из выходного сигнала ПНа, входных сигналов и переменных (q3, q2, q1), выражают посредством карты Карно, изображенной на фиг. 22; из карты Карно далее получают следующее уравнение Ур.(19)

С помощью переключателей на МОП-транзисторах логическую схему для сигналов обучения, изображенных в Ур. (17) и (18), выражают согласно изображению на фиг. 23; логическая схема фиг. 23 дает 0 или 1 или HP в соответствии с упомянутым алгоритмом обучения. (2) Веса и Пороги Модифицирования Схем
С помощью введения переменных состояния, подключающих каждый ПН согласно изображению на фиг. 21, приведение в действие модифицирующих схем для весов и порогов с помощью алгоритма обучения можно представить в виде схемы состояний и таблицы перехода состояния, изображенных на фиг. 24 и 25 соответственно. Предписывание фиг. 24 и 25 в истинностные таблицы, изображенные на фиг. 26 и 27, дает уравнение Ур. (20), которое выражает функции перехода состояния.

либо эти функции выражают в следующем виде:



комбинирование и весов, и порогов дает истинностную таблицу, изображенную на фиг. 28. Карта Карно для q'3, q'2, q'1 выражена на фиг. 29, 30 и 31 соответственно; и получают следующие уравнения Ур. (21):

Их схема выражена на фиг. 32. С помощью триггеров задержки в качестве запоминающих устройств схему обучения выражают согласно фиг.33. Обозначив как S(1), S(x), S (1-х) и S(0) 1-подключенное, напрямую-подключенное, инвертор-подключенное и 0-подключенное состояния подключенных состояний ПН соответственно, истинностную таблицу связывающей функции выражают согласно фиг. 34. С помощью этой ценностной таблицы фиг. 34 получают следующие логические функции, определяемые Ур. (22).

Соответственно, подключающую схему выражают согласно изображению на фиг. 35, а блок-схема полных обучающих схем, использующих ПН, изображена на фиг. 36. 3. Алгоритм Обучения и его Осуществление Применительно к Способу Псевдопотенциальной Энергии. Алгоритмы обучения применительно к способу псевдопотенциальной энергии (далее - способ ППЭ) описывают для составления внутренней модели (подключенное состояние между внутренним слоем и слоем И) в двоичной системе И-ИЛИ, изображенной на фиг. 5. Как указано выше, имеется четыре подключенных состояния: 1-подключенное, напрямую-подключенное, инвертор-подключенное и 0-подключенное. Поэтому каждое подключенное состояние определяют приложением псевдопотенциальной энергии. Порядок псевдопотенциальной энергии от высокого до низкого предполагают следующим. Для 0-входного сигнала (1) 1-подключенное, (2) инвертор-подключенное, (3) напрямую-подключенное, (4) 0- подключенное; и для 1-входного сигнала (1) 1-подключенное, (2) напрямую-подключенное, (3) инвертор-подключенное и (4) 0-подключенное. Относительно определенной выше квазипотенциальной энергии следует отметить, что чем выше эта псевдопотенциальная энергия, тем легче подключенное состояние дает 1-выходной сигнал. И, наоборот, чем ниже энергия, тем легче подключенные состояния дают 0-выходной сигнал. Поэтому, когда нужен выходной 1-выходного сигнала, необходимо изменить текущую псевдопотенциальную энергию на более высокое состояние. Наоборот, когда нужен выходной сигнал 0-выходного сигнала, необходимо будет изменить энергию на более низкое состояние. Обучение заключается в том, чтобы выходной сигнал сети совпал с преподавательским сигналом, и тогда обучение осуществляется модифицированием квазипотенциальной энергии подключения. При этом имеют в виду сеть И-ИЛИ, изображенную на фиг. 5. Когда преподавательский сигнал равен 1, выходной сигнал Z равен 0, а выходной сигнал всех Иj становится 0. Чтобы выходной сигнал Z смог стать 1, необходимо сместить состояние (2) или (3) для 0-входного сигнала, и состояние (3) или (4) для 1-входного сигнала в состояние (2) или состояние (3), имеющие более высокие квазипотенциальные энергии, только при вводе Иj, т.е. Yij равно 0. В состоянии (1) и состоянии (2), когда двоичная 1 уже выведена, состояние (1) и состояние (2) соответственно сохраняются. Когда преподавательский сигнал Т равен 0, выходной сигнал Z = 1, то по меньшей мере один выходной сигнал Иj продолжает выводить двоичную 1. Чтобы выходной сигнал мог быть в двоичным 0, нужно, чтобы все вентили Иj, выводящие двоичную 1, выводили двоичные нули. Когда Иj выводит двоичную 1, это означает, что подключенное состояние вентиля Иj находится в состоянии (1) или (2), имеющем более высокую потенциальную энергию. Соответственно, чтобы выходной сигнал мог быть в двоичном 0, необходимо сместить состояния (1) или (2), имеющие более высокие потенциальные энергии, в состояния (2) или (3), имеющие более низкие потенциальные энергии. Исходя из вышеизложенного, становится возможным получение следующих сигналов обучения, иллюстрируемых в Ур. (23),

При этом, если S(1), S(x), S(1-х) и S(0) обозначают 1-подключенное, напрямую-подключенное, инвертор-подключенное и 0-подключенное состояние псевдонейрона и если назначить 11, 10, 01, 00 каждому из вышеуказанных четырех подключенных состояний с помощью 2-разрядного (q2, q1) двоичного кода, то логическое отношение между Yij и текущими состояниями q2q1, входным сигналом Xi выражают истинностной таблицей фиг. 37 и также их логическое отношение выражают следующим Ур. (24)

Сеть алгоритмов обучения также иллюстрирована на фиг. 38. Имея определенные выше переменные состояния, можно на фиг. 39 выразить комбинационную сеть в последовательностной сети. Таким образом, функцию перехода состояния можно получить из Ур. (25).

Затем, используя триггерные схемы задержки в качестве запоминающих устройств, схему модифицирования обучения можно реализовать со схемой, изображенной на фиг. 40. Подключенную схему можно также реализовать со схемой, изображенной на фиг. 41. Наконец, блок-схема полной схемы обучения, использующей способ псевдопотенциальной энергии, изображена на фиг. 42. Аналогичным образом возможно увеличить внутренние состояния или сделать переходы состояния цикличными. Чтобы реализовать обучение, также можно использовать обычные ЦП и ПЗУ. (4) Способ Обучения в Последовательностной Сети
Далее следует описание способа обучения для составления последовательностной сети. Как указано выше, двоичная система, например, иллюстрируемая на Фиг. 5, является многослойной сетью типа "подачи вперед", состоящей из подключающего слоя, слоя И и слоя ИЛИ. Обозначив входной сигнал символом X, связывающую функцию - символом С и выходной сигнал - символом Z, выходной сигнал Z будет выражен следующим образом:
Z = f(C, X). Обучением является изменение связывающей функции С способом спуска градиента или способом псевдопотенциальной энергии. Например, рассмотрим последовательностную сеть, состоящую из комбинационной сети с подключающим слоем, слоем И и слоем ИЛИ и запоминающей сети с триггерами задержки. Последовательностную сеть можно представить следующими уравнениями:
Z(t) = F(C1(t), X(t), D(t-1))
D(t-1) = f(C2(t-1), x(t-1), D(t-2))
Таким образом:
Z(t) = f(C2(t), X(t), C2(t-1), X(t-1), D(t-2)),
где C1(t), C2(t) есть связывающие функции во время этапа Т и X(t), Z(t) и D(t) являются входным, выходным и внутренними состояниями во время этапа t соответственно. Поэтому обучение можно осуществлять модифицированием связующих функций C1(t), C2(t-1) способом спуска градиента или способом псевдопотенциальной энергии. Нужно отметить, что обучение не только зависит от входного сигнала X(t) и выходного сигнала Z(t) на этапе t, но также и от входного сигнала X(t-1) на этапе (t-1) и внутреннего состояния D(t-2). Поэтому
C1(t+1) = C1(t) +

C2(t) = C2(t-1) +

где


D(t) =f(C2(t), X(t), D(t-1))
В соответствии с приведенным выше подробным изложением в способе обучения в двоичных системах согласно данному изобретению первый двоичный вентиль и второй двоичный вентиль определяют как один из вентилей, содержащий вентиль ИЛИ, И, НЕ-ИЛИ, НЕ-И и исключающего ИЛИ, причем первый вентиль подключают ко второму вентилю в одном из следующих четырех подключенных состояний:
(1) напрямую-подключенное;
(2) подключенное через инвертор;
(3) двоичное 1-введенное во второй вентиль;
(4) двоичное 0-введенное во второй вентиль. В этой двоичной системе обучение осуществляют выбором любого одного подключенного состояния из числа указанных четырех состояний. В способе обучения в двоичных системах согласно данному изобретению входной сигнал подключают к любому одному из вентилей из числа вентилей ИЛИ, И, НЕ-ИЛИ, НЕ-И или исключающего ИЛИ в любом одном состоянии из числа перечисленных ниже четырех подключенных состояний:
(1) напрямую-подключенное;
(2) подключенное через инвертор;
(3) двоичное 1-введенное во второй вентиль;
(4) двоичное 0-введенное во второй вентиль. В этой двоичной системе обучение осуществляют выбором любого одного подключенного состояния из числа указанных четырех состояний. В способе обучения в двоичных системах согласно данному изобретению текущие входные сигналы и внутренние состояния, выражающие прошлую последовательность значений входных сигналов, подключают к любому одному вентилю из числа вентилей ИЛИ, И, НЕ-ИЛИ, НЕ-И или исключающего ИЛИ в любом одном состоянии из числа перечисленных ниже четырех подключенных состояний;
(1) напрямую-подключенное;
(2) подключенное через инвертор;
(3) двоичное 1-введенное во второй вентиль;
(4) двоичное 0-введенное во второй вентиль. В этой двоичной системе обучение осуществляют выбором любого одного подключенного состояния из числа указанных выше четырех состояний. В способе обучения в двоичных системах согласно данному изобретению подключение между указанным первым двоичным вентилем, или входным сигналом, и вторым двоичным вентилем выполняют таким образом, чтобы выбрать любое одно состояние из числа указанных выше четырех подключенных состояний по меньшей мере в соответствии с вычисленным результатом между входным сигналом в первый двоичный вентиль и преподавательским сигналом для обучения. В способе обучения в двоичных системах согласно данному изобретению благодаря обеспечению псевдонейрона Q, определяемого ниже, между упомянутым первым двоичным вентилем (или входным сигналом) и вторым двоичным вентилем подключение между первым двоичным вентилем (или входным сигналом) и вторым двоичным вентилем определяют псевдонейроном Q, а выбор подключения (т.е. обучение) осуществляют модифицированием весов и порогов псевдонейрона Q. Здесь псевдонейрон Q определяют как Q = f(WX,

где:
f: пороговая функция, или сигмоидальная функция, или частичная линейная функция;
X: входной сигнал в псевдонейрон Q из первого двоичного вентиля;
W: вес между входным сигналом и псевдонейроном Q;

(1) входной слой напрямую подключают к слою И;
(2) входной слой подключают к вентилю И через инверторы;
(3) в качестве входных сигналов в слой И двоичная 1 всегда является входным сигналом;
(4) в качестве входных сигналов в слой И двоиный 0 всегда является входным сигналом. При этом псевдонейрон Q определяют как
Q = f(WX,

f: является пороговой функцией, сигмоидальной функцией или частичной линейной функцией;
X: является входным сигналом в псевдонейрон Q;
W: вес между входным сигналом и псевдонейроном; и

(1) входной слой напрямую подключают к слою ИЛИ;
(2) входной слой подключают к слою ИЛИ через инверторы;
(3) в качестве входных сигналов в слой ИЛИ всегда вводят двоичную 1;
(4) в качестве входных сигналов в слой ИЛИ всегда вводят двоичный 0. При этом псевдонейрон Q определяют как Q = f(WX,

f: является пороговой функцией, сигмоидальной функцией или частичной линейной функцией;
X: является входным сигналом в псевдонейрон Q;
W: вес между входным сигналом и псевдонейроном; и

(1) входной слой напрямую подключают к слою НЕ-И;
(2) входной слой подключают к слою НЕ-И через инверторы;
(3) в качестве входных сигналов в слой НЕ-И всегда вводят двоичную 1;
(4) в качестве входных сигналов в слой НЕ-И всегда вводят двоичный 0. При этом псевдонейрон Q определяют как Q = f(WX,

f: является пороговой функцией, сигмоидальной функцией или частичной линейной функцией;
X: является входным сигналом, вводимым в псевдонейрон Q;
W: вес между входным сигналом и псевдонейроном и

(1) входной слой напрямую подключают к промежуточному слою НЕ-ИЛИ;
(2) входной слой подключают к промежуточному слою НЕ-ИЛИ через инверторы;
(3) в качестве входных сигналов в промежуточный слой ИЛИ-НЕ всегда вводят двоичную 1;
(4) в качестве входных сигналов в промежуточный слой ИЛИ-НЕ всегда вводят двоичный 0. При этом псевдонейрон Q определяют как Q = f(WX,

f: является пороговой функцией, сигмоидальной функцией или частичной линейной функцией;
X: является входным сигналом, вводимым в псевдонейрон Q;
W: вес между входным сигналом и псевдонейронами; и

(1) входной слой напрямую подключают к промежуточному слою исключающего ИЛИ;
(2) входной слой подключают к промежуточному слою исключающего ИЛИ через инверторы;
(3) в качестве входных сигналов в промежуточный слой исключающего ИЛИ всегда вводят двоичную 1;
(4) в качестве входных сигналов в промежуточный слой исключающего ИЛИ всегда вводят двоичный 0. При этом псевдонейрон Q определяют как Q = f(WX,

f: является пороговой функцией, сигмоидальной функцией или частичной линейной функцией;
X: является входным сигналом, вводимым в псевдонейрон;
W: вес между входным сигналом и псевдонейроном; и

Применением этих способов обучения в двоичных системах согласно данному изобретению можно получить эффекты обучения в течение очень короткого периода обучения согласно изложенному выше описанию. Поскольку все функции реализуют простыми логическими вентилями, становится возможным нетрудное конструирование и использование той части, которая выполняет логическую операцию алгоритма обучения и модифицирования схемы. Поскольку эти способы обучения легко выполняются в обычном компьютере и прочем цифровом оборудовании, то можно надеяться, что эти способы обучения будут широко использоваться в обработке изображения, речи, редактировании и управлении движениями.
Формула изобретения
Q = f(WX,

где f является пороговой функцией, или сигмоидальной функцией, или частичной линейной функцией;
Х является входным сигналом, вводимым в псевдонейрон Q;
W является весом между входным сигналом и псевдонейроном Q;


Q = f(WX,

где f является пороговой функцией, или сигмоидальной функцией, или частичной линейной функцией;
Х является входным сигналом, вводимым в псевдонейрон Q;
W является весом между входным сигналом и псевдонейроном Q;


Q = f(WX,

где f является пороговой функцией, или сигмоидальной функцией, или частичной линейной функцией;
Х является входным сигналом, вводимым в псевдонейрон Q,
W является весом между входным сигналом и псевдонейроном Q;












РИСУНКИ
Рисунок 1, Рисунок 2, Рисунок 3, Рисунок 4, Рисунок 5, Рисунок 6, Рисунок 7, Рисунок 8, Рисунок 9, Рисунок 10, Рисунок 11, Рисунок 12, Рисунок 13, Рисунок 14, Рисунок 15, Рисунок 16, Рисунок 17, Рисунок 18, Рисунок 19, Рисунок 20, Рисунок 21, Рисунок 22, Рисунок 23, Рисунок 24, Рисунок 25, Рисунок 26, Рисунок 27, Рисунок 28, Рисунок 29, Рисунок 30, Рисунок 31, Рисунок 32, Рисунок 33, Рисунок 34, Рисунок 35, Рисунок 36, Рисунок 37, Рисунок 38, Рисунок 39, Рисунок 40, Рисунок 41, Рисунок 42, Рисунок 43