Ответы на ИНТУИТ

ИНТУИТ ответы на тесты

Решение тестов / курсов
База ответов ИНТУИТ.RU
Заказать решение курсов или тестов:
https://vk.com/id358194635
https://vk.com/public118569203

Основы теории нейронных сетей

Заказать решение
Количество вопросов 372

Всегда ли обученная сеть ДАП является устойчивой?

перейти к ответу ->>

Алгоритм обучения персептрона – это:

перейти к ответу ->>

В аналого-цифровом преобразователе весовые значения интерпретируют:

перейти к ответу ->>

Задачей комплексных узлов является:

перейти к ответу ->>

Если ошибка сети на контрольном множестве стала расти, это означает, что:

перейти к ответу ->>

Вопрос о выборе шага при применении процедуры обучения решается следующим образом:

перейти к ответу ->>

Какое минимальное количество слоев должна иметь нейронная сеть, для того чтобы к ней возможно было применить алгоритм обратного распространения?

перейти к ответу ->>

Если матрица весов не является симметричной, то будет ли данная сеть обратного распространения устойчивой?

перейти к ответу ->>

Лотарально-тормозящая связь используется :

перейти к ответу ->>

Если случайные изменения весовых значений очень малы, то:

перейти к ответу ->>

Весовые значения тормозящих нейронов из области связи задаются так, чтобы:

перейти к ответу ->>

Если нейронная сеть не содержит скрытых элементов, то она:

перейти к ответу ->>

Всегда ли в статистических алгоритмах обучения производится изменение весовых значений?

перейти к ответу ->>

Метод выпуклой комбинации заключается в том, что в начале процесса обучения всем весам слоя Кохонена присваиваются:

перейти к ответу ->>

"Победителем" считается нейрон Кохонена

перейти к ответу ->>

Можем ли мы за конечное число шагов после запуска алгоритма обучения персептрона сказать, что персептрон не может обучиться данной задаче?

перейти к ответу ->>

Что называется обучающей выборкой для обучения персептрона?

перейти к ответу ->>

Информация, поступающая из предыдущего слоя неокогнитрона, подается

перейти к ответу ->>

Есть ли вероятность того, что в алгоритме разобучения сеть "забудет" правильный образ?

перейти к ответу ->>

Комбинирование методов распространения Коши и обратного распространения заключается в:

перейти к ответу ->>

Если параметр сходства выбрать неоправданно низким, то:

перейти к ответу ->>

Фаза поиска считается неуспешно завершенной, если:

перейти к ответу ->>

Алгоритм обучения Кохонена является:

перейти к ответу ->>

Что такое "неподатливое" множество образов?

перейти к ответу ->>

При обучении слоя Кохонена процесс обучения состоит в:

перейти к ответу ->>

Выходом входной звезды Гроссберга является:

перейти к ответу ->>

Стохастическим методом обучения называется:

перейти к ответу ->>

"Обучение без учителя" характеризуется отсутствием:

перейти к ответу ->>

Метод импульса заключается в:

перейти к ответу ->>

При обучении когнитрона обучаются:

перейти к ответу ->>

Что является входом искусственного нейрона?

перейти к ответу ->>

Матричное умножение XW вычисляет:

перейти к ответу ->>

Можно ли построить однослойную нейронную сеть с обратными связями?

перейти к ответу ->>

"Обучение с учителем" это:

перейти к ответу ->>

Выходом персептрона являются:

перейти к ответу ->>

Персептронной представимостью называется:

перейти к ответу ->>

Однонейронным персептроном размерность разделяемого пространства определяется

перейти к ответу ->>

В однонейронном персептроне размерность разделяющей гиперплоскости определяется:

перейти к ответу ->>

Может ли персептрон Розенблатта выделять ограниченную область в пространстве решений?

перейти к ответу ->>

Однослойный персептрон решает задачи:

перейти к ответу ->>

Подаем на вход персептрона вектор a. В каком случае весовые значения нужно уменьшать?

перейти к ответу ->>

Теорема о сходных персептронах утверждает, что:

перейти к ответу ->>

Если данный персептрон заменить персептроном с целочисленными весами, то:

перейти к ответу ->>

Скрытым слоем обобщенного многослойного персептрона называется:

перейти к ответу ->>

Если до начала процедуры обучения по алгоритму обратного распространения все весовые значения сети сделать равными, то

перейти к ответу ->>

Какие из перечисленных ниже шагов в алгоритме обратного распространения являются шагами "обратного прохода"?

перейти к ответу ->>

При обучении выходного нейрона величина δ является:

перейти к ответу ->>

Добавление нейронного смещения позволяет:

перейти к ответу ->>

Если сеть имеет очень большое число нейронов в скрытых слоях, то:

перейти к ответу ->>

Механизм контрольной кросс-проверки необходим для того, чтобы:

перейти к ответу ->>

Если сеть слишком близко подгоняет выходные значения к имеющимся обучающим значениям, то:

перейти к ответу ->>

Если сеть содержит один промежуточный слой, то она моделирует:

перейти к ответу ->>

Если сеть находится в постоянно меняющейся внешней среде, то:

перейти к ответу ->>

Если данный нейрон Кохонена является "победителем", то его значение OUT

перейти к ответу ->>

В процессе обучения слоя Кохонена "победителем" объявляется нейрон

перейти к ответу ->>

Метод коррекции весов пропорционально входу заключается в:

перейти к ответу ->>

Если в алгоритме обучения сети встречного распространения на вход сети подается вектор x, то желаемым выходом является

перейти к ответу ->>

Способна ли сеть встречного распространения аппроксимировать обратимые функции?

перейти к ответу ->>

При стохастическом методе обучения изменения весовых значений сохраняются, если

перейти к ответу ->>

При обучении сеть не сможет выбраться из локального минимума, если:

перейти к ответу ->>

Какова роль искусственной температуры при Больцмановском обучении?

перейти к ответу ->>

Какая из перечисленных ниже проблем сходимости возникает в алгоритме обратного распространения?

перейти к ответу ->>

Метод изменений сигналов OUT заключается в том, что:

перейти к ответу ->>

Отсутствие обратных связей гарантирует:

перейти к ответу ->>

Если сеть Хопфилда нашла среди запомненных ею образцов, образец соответствующий данному входному вектору, то сеть должна :

перейти к ответу ->>

Если два образца сильно похожи, то:

перейти к ответу ->>

Сколько нейронов должна содержать сеть Хемминга для того чтобы она могла запомнить n образцов?

перейти к ответу ->>

Память называется ассоциативной, если извлечение необходимой информации происходит по:

перейти к ответу ->>

При ортогонализации исходных образов отрицательным фактором является:

перейти к ответу ->>

Алгоритмы разобучения применяются для:

перейти к ответу ->>

Метод машины Больцмана позволяет сети Хопфилда:

перейти к ответу ->>

В алгоритме обучения обобщенной машины Больцмана вычисление закрепленных вероятностей начинается после:

перейти к ответу ->>

Задачей аналого-цифрового преобразователя является то, что:

перейти к ответу ->>

Автоассоциативность памяти обусловлена:

перейти к ответу ->>

В какой зависимости находятся веса синаптических связей, исходящих из первого слоя нейронов, от весов синаптических связей, исходящих из второго слоя нейронов?

перейти к ответу ->>

Способность ДАП к обобщению заключается в:

перейти к ответу ->>

Сеть ДАП называется конкурирующей, если:

перейти к ответу ->>

Почему изученные ранее нейронные сети не обладают свойством стабильности-пластичности?

перейти к ответу ->>

Шаблоном критических черт называется:

перейти к ответу ->>

В сети АРТ запомненный образ подвергается изменению:

перейти к ответу ->>

Из слоя распознавания информация поступает в:

перейти к ответу ->>

В начальный момент времени выходом слоя сравнения является

перейти к ответу ->>

Фаза распознавания инициализируется:

перейти к ответу ->>

В фазе сравнения блок сброса:

перейти к ответу ->>

Суть алгоритма медленного обучения в том, что:

перейти к ответу ->>

Характеристика "прямого доступа" заключается в том, что:

перейти к ответу ->>

Величиной NET нейрона когнитрона является:

перейти к ответу ->>

Весовые значения тормозящих нейронов:

перейти к ответу ->>

Если возбуждающие и тормозящие входы данного нейрона достаточно велики, то его выходной сигнал OUT будет вычисляться по формуле:

перейти к ответу ->>

При предъявлении на вход обученного когнитрона некоторого вектора

перейти к ответу ->>

Латеральное торможение данный нейрон получает:

перейти к ответу ->>

Рецептивной областью данного простого узла называется:

перейти к ответу ->>

Различные узлы в одной плоскости простых узлов реагируют:

перейти к ответу ->>

При использовании неокогнитрона как классификатора, можем ли мы классифицировать образы независимо от их позиции, ориентации, размера и т.п.?

перейти к ответу ->>

При каких из ниже перечисленных условий, в алгоритме обучения неокогнитрона "без учителя" происходит обучение данной синоптической связи?

перейти к ответу ->>

В алгоритме Хэбба величина изменения синоптической связи между двумя нейронами зависит:

перейти к ответу ->>

Выходом выходной звезды Гроссберга является

перейти к ответу ->>

Обучение персептрона считается законченным, когда:

перейти к ответу ->>

В статистических алгоритмах обучения величина изменения синоптической связи между двумя нейронами зависит:

перейти к ответу ->>

Самоорганизующиеся сети используются для:

перейти к ответу ->>

Если статическая сеть Хопфилда обладает низкой искусственной температурой, то более вероятными становятся:

перейти к ответу ->>

Способность неокогнитрона к самовосстановлению выражается в:

перейти к ответу ->>

В чем заключается отличие АРТ-1 от АРТ-2?

перейти к ответу ->>

Что означает величина NET?

перейти к ответу ->>

В алгоритме обучения Кохонена, увеличивая пороговое значение расстояния между входным вектором и весовыми значениями нейрона, мы можем добиться:

перейти к ответу ->>

Обучение слоя Кохонена является:

перейти к ответу ->>

Непрерывная сеть Хопфилда является устойчивой, если:

перейти к ответу ->>

Сеть с обратным распространением называется неустойчивой, если:

перейти к ответу ->>

Суть алгоритма быстрого обучения в том, что:

перейти к ответу ->>

Теорема о двухслойности персептрона утверждает, что:

перейти к ответу ->>

Какими должны быть весовые значения тормозящих синаптических связей?

перейти к ответу ->>

Тестовое множество необходимо для:

перейти к ответу ->>

Если параметр сходства выбрать неоправданно высоким, то:

перейти к ответу ->>

Задача сети Хопфилда заключается в

перейти к ответу ->>

Дискриминантной функцией называется:

перейти к ответу ->>

Что такое множество весовых значений нейрона?

перейти к ответу ->>

Сетью без обратных связей называется сеть,

перейти к ответу ->>

Входным слоем сети называется:

перейти к ответу ->>

Сети прямого распространения - это:

перейти к ответу ->>

Обучением называют:

перейти к ответу ->>

Алгоритм обучения персептрона завершает свою работу, когда

перейти к ответу ->>

Если на данной обучающей паре символ персептрона не совпадает с нужным ответом, то:

перейти к ответу ->>

Теорема о "зацикливании" персептрона утверждает, что:

перейти к ответу ->>

Какая сеть может оказаться недостаточно гибкой, для того чтобы смоделировать имеющуюся зависимость?

перейти к ответу ->>

При методе кросс-проверки считается, что множество обучающихся пар корректно разделено на две части, если:

перейти к ответу ->>

Чем тестовое множество отличается от контрольного множества?

перейти к ответу ->>

Если размер шага очень большой, то:

перейти к ответу ->>

По принципу "победитель забирает все" действуют:

перейти к ответу ->>

Задачей слоя Кохонена является:

перейти к ответу ->>

Целевой функцией называется:

перейти к ответу ->>

Для какого алгоритма необходимо гораздо большее время сходимости?

перейти к ответу ->>

Сеть с обратным распространением называется устойчивой, если:

перейти к ответу ->>

Если среди запомненных сетью Хопфилда образцов не существует образца, подходящего для данного входного вектора, то:

перейти к ответу ->>

Если сеть Хопфилда содержит n нейронов, то она может запомнить примерно:

перейти к ответу ->>

Задачей распознавания образов называется:

перейти к ответу ->>

Метод обучения сети называется локальным, если:

перейти к ответу ->>

Обучение обобщенной машины Больцмана является:

перейти к ответу ->>

Гетероассоциативность ДАП достигается путем:

перейти к ответу ->>

Сеть ДАП достигает стабильного состояния, когда:

перейти к ответу ->>

Долговременной памятью сети ДАП называется:

перейти к ответу ->>

Пластичностью называется способность памяти:

перейти к ответу ->>

Шаблон критических черт используется, когда:

перейти к ответу ->>

Если входной вектор не соответствует ни одному из запомненных образов, то

перейти к ответу ->>

В слой сравнения информация поступает из:

перейти к ответу ->>

В момент времени, отличный от начального, выходом слоя распознавания является

перейти к ответу ->>

Перед началом процесса обучения сети АРТ все весовые значения, являющиеся входными для слоя распознавания принимают:

перейти к ответу ->>

В фазе распознавания свертка вычисляется при помощи скалярного произведения

перейти к ответу ->>

Всегда ли по окончании фазы поиска входному вектору сопоставляется некоторый нейрон из слоя распознавания?

перейти к ответу ->>

В алгоритме обучения сети АРТ процедура самомасштабирования необходима для того, чтобы:

перейти к ответу ->>

Если в процессе обучения на вход сети АРТ подавать повторяющиеся последовательности обучающих векторов, то:

перейти к ответу ->>

Когнитрон является:

перейти к ответу ->>

Выходом тормозящего пресиноптического нейрона является:

перейти к ответу ->>

Обучение тормозящего входа возбуждающего нейрона

перейти к ответу ->>

Приращение веса возбуждающего входа данного постсиноптического нейрона зависит от:

перейти к ответу ->>

В чем заключается главный недостаток процедуры латерального торможения?

перейти к ответу ->>

Слой неокогнитрона состоит из

перейти к ответу ->>

Каждая плоскость простых узлов реагирует

перейти к ответу ->>

Простой узел возбуждается, если:

перейти к ответу ->>

Чем различаются комплексные узлы, лежащие в разных слоях неокогнитрона?

перейти к ответу ->>

Какой тип обучения можно использовать при обучении неокогнитрона?

перейти к ответу ->>

В алгоритме сигнального обучения Хэбба величина синоптической связи между двумя нейронами зависит :

перейти к ответу ->>

В алгоритме обучения выходной звезды Гроссберга величина синоптической связи между двумя нейронами зависит

перейти к ответу ->>

Алгоритм обучения персептрона является:

перейти к ответу ->>

Почему для статистических алгоритмов обучения распределение Коши является более приемлемым, чем распределение Больцмана?

перейти к ответу ->>

В алгоритме обучения Кохонена величина синоптической связи между двумя нейронами зависит:

перейти к ответу ->>

Добавление к коррекции веса значения, пропорционального величине предыдущего изменения веса, используется при методе:

перейти к ответу ->>

Обучение сети ДАП происходит:

перейти к ответу ->>

В алгоритме обучения обобщенной машины Больцмана закрепленные вероятности вычисляются, когда:

перейти к ответу ->>

Чем отличается обучение скрытого нейрона от обучения выходного нейрона?

перейти к ответу ->>

При каком алгоритме обучения обучающее множество состоит только из входных векторов?

перейти к ответу ->>

Выпуклой областью называется:

перейти к ответу ->>

В методе измерений сигнала OUT роль дополнительной сжимающей функции заключается в...

перейти к ответу ->>

Устойчивость процесса поиска заключается в том, что:

перейти к ответу ->>

В фазе сравнения в слое сравнения возбуждаются те нейроны, которым соответствуют:

перейти к ответу ->>

Пусть F - обратимая функция и F(x)=y. Если сеть встречного распространения обучена аппроксимировать эту функцию, то, если на вход подать только вектор x , на выходе мы получим:

перейти к ответу ->>

В каждом слое неокогнитрона

перейти к ответу ->>

Сколько слоев полноценных нейронов используется в сети Хопфилда?

перейти к ответу ->>

Какие весовые значения должны быть навешаны на сеть до начала процедуры обучения?

перейти к ответу ->>

В алгоритме обучения с учителем сравнение реального выхода с желаемым происходит:

перейти к ответу ->>

В каком случае сигнал OUT совпадает с сигналом NET для данного нейрона когнитрона?

перейти к ответу ->>

Входом персептрона являются:

перейти к ответу ->>

Синаптические связи называются тормозящими, если :

перейти к ответу ->>

Внутренней памятью нейрона называется:

перейти к ответу ->>

Метод дифференциального обучения Хэбба заключается в том, что в нем для изменения синоптических связей учитываются:

перейти к ответу ->>

Месторасположением узла в данной плоскости простых узлов определяется

перейти к ответу ->>

Механизм контрольной кросс-проверки заключается в:

перейти к ответу ->>

Если сеть содержит два промежуточных слоя, то она моделирует:

перейти к ответу ->>

При обучении слоя Кохонена подстраиваются весовые значения:

перейти к ответу ->>

Пусть F - обратимая функция и F(x)=y. Если сеть встречного распространения обучена аппроксимировать эту функцию, то, если на вход подать только вектор y, на выходе мы получим:

перейти к ответу ->>

Какие сети характеризуются отсутствием памяти?

перейти к ответу ->>

В каком случае персептрон может обучиться решать данную задачу?

перейти к ответу ->>

Если блок сброса выработал сигнал сброса, то:

перейти к ответу ->>

Активационная функция применяется для:

перейти к ответу ->>

Слоем нейронной сети называется множество нейронов,

перейти к ответу ->>

Как происходит обучение нейронной сети?

перейти к ответу ->>

Персептроном Розенблатта называется:

перейти к ответу ->>

Какая из следующих функций непредставима персептроном?

перейти к ответу ->>

В однонейронном персептроне длина входного вектора характеризует:

перейти к ответу ->>

Подаем на вход персептрона вектор а. В каком случае весовые значения нужно увеличивать?

перейти к ответу ->>

Входным слоем обобщенного многослойного персептрона называется:

перейти к ответу ->>

Какие из перечисленных ниже шагов в алгоритме обратного распространения являются шагами "прохода вперед"?

перейти к ответу ->>

Алгоритм обратного распространения заканчивает свою работу, когда:

перейти к ответу ->>

При методе кросс-проверки считается, что сеть начала переобучаться, если:

перейти к ответу ->>

Если размер шага очень мал, то:

перейти к ответу ->>

Детерминистским методом обучения называется:

перейти к ответу ->>

Если случайные изменения весовых значений очень велики, то:

перейти к ответу ->>

В чем преимущество метода Коши перед Больцмановским методом обучения?

перейти к ответу ->>

Для какого алгоритма скорость обучения более высокая?

перейти к ответу ->>

Сеть называется сетью с обратными связями, если:

перейти к ответу ->>

Состоянием сети Хопфилда называется :

перейти к ответу ->>

Какая сеть требует меньших затрат вычислительных ресурсов?

перейти к ответу ->>

При методе отказа от симметрии синапсов отрицательным фактором является:

перейти к ответу ->>

В алгоритме разобучения в качестве степени забывания выбирают достаточно малое число для того, чтобы:

перейти к ответу ->>

В алгоритме обучения обобщенной машины Больцмана вычисление незакрепленных вероятностей начинается после:

перейти к ответу ->>

В сети ДАП выходы второго слоя нейронов являются:

перейти к ответу ->>

Если на вход ДАП подать частично обнуленный вектор, то сеть выдаст также частично обнуленный ассоциированный с ним вектор?

перейти к ответу ->>

Кодированием ассоциаций называется:

перейти к ответу ->>

Сеть ДАП называется негомогенной, если:

перейти к ответу ->>

Если входной вектор соответствует одному из запомненных образов, то:

перейти к ответу ->>

Из слоя сравнения информация поступает в:

перейти к ответу ->>

В фазе сравнения значение приемника 1 устанавливается равным:

перейти к ответу ->>

Фаза поиска считается успешно завершенной, если:

перейти к ответу ->>

Областью связанности данного нейрона называется:

перейти к ответу ->>

Принцип "элитного обучения" когнитрона заключается в том, что:

перейти к ответу ->>

Стратегия обучения когнитрона заключается в том, что:

перейти к ответу ->>

Каким образом можно уменьшить количество слоев когнитрона, не причинив ущерба его вычислительным свойствам?

перейти к ответу ->>

Каждой плоскости простых узлов сопоставлено:

перейти к ответу ->>

Каждый узел в плоскости простых узлов получает вход:

перейти к ответу ->>

Сколько слоев полноценных нейронов имеет сеть Хэмминга?

перейти к ответу ->>

Когда алгоритм обучения персептрона зацикливается?

перейти к ответу ->>

Способна ли одна и та же плоскость простых узлов реагировать как на заданный образ, так и на его произвольный поворот?

перейти к ответу ->>

В каждом слое неокогнитрона выходы из массива простых плоскостей поступают на вход

перейти к ответу ->>

Кодирование ассоциаций - это:

перейти к ответу ->>

Метод интерполяции заключается в:

перейти к ответу ->>

Если на данной обучающей паре сигнал персептрона совпал с нужным ответом, то нужно

перейти к ответу ->>

Активационная функция называется "сжимающей", если

перейти к ответу ->>

В алгоритме обучения обобщенной машины Больцмана изменение весовых значений:

перейти к ответу ->>

При обучении сети встречного распространения обучающей парой является:

перейти к ответу ->>

При стохастическом методе обучения , если целевая функция увеличивается, то:

перейти к ответу ->>

Хорошо обученная входная звезда Гроссберга способна реагировать:

перейти к ответу ->>

Где в нейронной сети хранится информация о классификации образов?

перейти к ответу ->>

В статической сети Хопфилда вероятность изменения веса является функцией от:

перейти к ответу ->>

Чем реакция комплексного узла на данный входной образ отличается от реакции простого узла, лежащего в том же слое?

перейти к ответу ->>

Активационной функцией называется:

перейти к ответу ->>

Пусть при обучении Коши сделанное изменение весовых значений увеличило целевую функцию. Всегда ли сделанное изменение скидывается?

перейти к ответу ->>

Проблема локализованности памяти АРТ заключается в том, что:

перейти к ответу ->>

Представима ли персептроном любая интуитивно вычислимая задача?

перейти к ответу ->>

Перед началом процесса обучения сети АРТ все весовые значения, являющиеся выходными для слоя распознавания принимают:

перейти к ответу ->>

Что означает величина OUT?

перейти к ответу ->>

В каком случае многослойные сети не могут привести к увеличению вычислительной мощности по сравнению с однослойной сетью?

перейти к ответу ->>

Сети с обратными связями это:

перейти к ответу ->>

Сколько слоев должна иметь нейронная сеть, умеющая выделять выпуклые области?

перейти к ответу ->>

Сколько нейронов должен иметь первый слой нейронной сети, умеющей выделять шестиугольник?

перейти к ответу ->>

Запускаем обучающий вектор Х. В каком случае весовые значения не нужно изменять?

перейти к ответу ->>

Обобщенным многослойным персептроном называется:

перейти к ответу ->>

Сигналом ошибки данного выходного нейрона называется:

перейти к ответу ->>

Метод ускорения сходимости заключается в:

перейти к ответу ->>

К переобучению склонны сети с:

перейти к ответу ->>

Сеть встречного распространения считается обученной, если:

перейти к ответу ->>

Метод "имитации отжига" заключается в

перейти к ответу ->>

Пусть при Больцмановском обучении сделанное изменение весовых значений увеличило целевую функцию. Данное изменение не скидывается, если:

перейти к ответу ->>

Какая из перечисленных ниже проблем локальных минимумов возникает в алгоритме обратного распространения?

перейти к ответу ->>

При комбинированном методе распределения Коши и обратного распространения изменение веса сохраняется, если:

перейти к ответу ->>

Если в данной сети найдутся нейроны, которые на этапе функционирования возбуждаются более, чем один раз, то:

перейти к ответу ->>

Ортогонализация исходных образов позволяет:

перейти к ответу ->>

Если статическая сеть Хопфилда обладает большой искусственной температурой, то более вероятными становятся:

перейти к ответу ->>

В алгоритме обучения обобщенной машины Больцмана незакрепленные вероятности вычисляются, когда:

перейти к ответу ->>

Память называется автоассоциативной, если:

перейти к ответу ->>

В каком случае сеть ДАП превращается в сеть Хопфилда?

перейти к ответу ->>

Сеть ДАП называется асинхронной, если:

перейти к ответу ->>

Фаза поиска инициализируется, если:

перейти к ответу ->>

Предусмотрена ли в алгоритме обучения когнитрона процедура сбрасывания сильно больших весовых значений?

перейти к ответу ->>

Если области связи нейронов имеют постоянный размер во всех слоях, то:

перейти к ответу ->>

Статистические методы обучения являются:

перейти к ответу ->>

В алгоритме обучения Кохонена обучению подвергаются:

перейти к ответу ->>

Если в обучающее множество входит множество сходных между собой векторов, то сеть должна научиться:

перейти к ответу ->>

Функция называется линейно неразделимой, если:

перейти к ответу ->>

Сеть ДАП называется адаптивной, если:

перейти к ответу ->>

Рецептивные области узлов каждой плоскости простых узлов

перейти к ответу ->>

Сеть начала переобучаться, если:

перейти к ответу ->>

Значение активационной функции является:

перейти к ответу ->>

Дендритами называются:

перейти к ответу ->>

При обучении скрытого нейрона величина δ является:

перейти к ответу ->>

Сколько слоев должна иметь нейронная сеть, умеющая выделять квадрат?

перейти к ответу ->>

Сколько слоев имеет персептрон Розенблатта?

перейти к ответу ->>

Нейронная сеть является обученной, если:

перейти к ответу ->>

В алгоритме обратного распространения при "проходе вперед"

перейти к ответу ->>

Чтобы избежать паралича сети, необходимо:

перейти к ответу ->>

Принцип работы слоя Кохонена заключается в том, что:

перейти к ответу ->>

Модификация алгоритма обучения методом "чувства справедливости" заключается в:

перейти к ответу ->>

В чем состоит минус метода ограничения диапазона изменений весовых значений?

перейти к ответу ->>

Метод отказа от симметрии синапсов позволяет:

перейти к ответу ->>

В методе машины Больцмана изменение состояний нейронов обусловлено:

перейти к ответу ->>

К какому типу памяти относится ДАП?

перейти к ответу ->>

Завершает ли сеть работу, если выходы второго слоя стабилизировались, а выходы первого слоя продолжают изменяться?

перейти к ответу ->>

Обладает ли сеть Хопфилда свойством стабильности-пластичности?

перейти к ответу ->>

Процесс лотерального торможения обеспечивает, что

перейти к ответу ->>

Если тормозящий вход данного нейрона слишком мал, то выходной сигнал OUT будет вычисляться по формуле:

перейти к ответу ->>

После окончания алгоритма обучения информация о "шаблоне" данного класса образов хранится:

перейти к ответу ->>

В алгоритме обучения персептрона величина изменения синоптической связи между двумя нейронами зависит

перейти к ответу ->>

Выходным слоем обобщенного многослойного персептрона называется:

перейти к ответу ->>

Метод импульса позволяет:

перейти к ответу ->>

Обучение сети встречного распространения является:

перейти к ответу ->>

Если в процессе обучения некоторый вес был обнулен, то:

перейти к ответу ->>

Работа блока сброса заключается в:

перейти к ответу ->>

Со всеми ли нейронами предыдущего слоя связан данный нейрон когнитрона?

перейти к ответу ->>

В чем преимущество негомогенной сети ДАП перед гомогенной?

перейти к ответу ->>

Если сеть Хэмминга в каждом слое содержит по n нейронов, то сколько образцов она способна запомнить?

перейти к ответу ->>

В каком случае после завершения алгоритма обучения можно сделать вывод, что данный персептрон не смог обучиться?

перейти к ответу ->>

Обучающей парой называется пара векторов,...

перейти к ответу ->>

Если к обучающему множеству добавить новые вектора, вызовет ли это необходимость переучивать когнитрон заново или нет?

перейти к ответу ->>

При каком алгоритме обучения обучающее множество состоит как из входных, так и из выходных векторов?

перейти к ответу ->>

Что называется "эпохой" в алгоритме обучения персептрона?

перейти к ответу ->>

Все ли нейроны многослойного персептрона возможно обучить?

перейти к ответу ->>

В алгоритме обратного распространения при "проходе вперед"

перейти к ответу ->>

При методе кросс-проверки считается, что множество обучающихся пар некорректно разделено на две части, если:

перейти к ответу ->>

Метод аккредитации заключается в:

перейти к ответу ->>

Если на вход обученной сети встречного распространения подать частично обнуленный вектор, то на выходе мы получим:

перейти к ответу ->>

При каком условии сеть обратного распространения является устойчивой?

перейти к ответу ->>

Стабильностью называется способность памяти:

перейти к ответу ->>

Правило двух третьих заключается в том, что:

перейти к ответу ->>

Алгоритм обучения сети АРТ является...

перейти к ответу ->>

В каждом слое неокогнитрона выходы из массива комплексных плоскостей поступают на вход

перейти к ответу ->>

При обучении персептрона предполагается обучение:

перейти к ответу ->>

На вход однослойного персептрона подается вектор (a1...an). В каком случае выходом будет нулевой вектор?

перейти к ответу ->>

Значением NET нейрона слоя Гроссберга является:

перейти к ответу ->>

Сколько слоев должна иметь нейронная сеть, умеющая выделять невыпуклые области?

перейти к ответу ->>

Персептрон Розенблатта решает задачи:

перейти к ответу ->>

Сколько слоев может содержать персептрон?

перейти к ответу ->>

Если в непрерывной сети Хопфилда коэффициент, определяющий крутизну сигмовидной функции, взять достаточно большим, то:

перейти к ответу ->>

Синапсами называются:

перейти к ответу ->>

Способность персептрона решать определенную задачу называется:

перейти к ответу ->>

Для решения любой задачи классификации достаточно иметь:

перейти к ответу ->>

Задача сети Хэмминга заключается в:

перейти к ответу ->>

Сколько нейронов необходимо для реализации задачи коммивояжера, где n - число городов?

перейти к ответу ->>

Сколько функциональных модулей включает в себя сеть АРТ?

перейти к ответу ->>

После окончания алгоритма обучения в нейроне слоя распознавания запоминается информация, являющаяся:

перейти к ответу ->>

Рецепторной областью комплексного узла называется:

перейти к ответу ->>

В статистических алгоритмах обучения искусственная температура используется для:

перейти к ответу ->>

Обучающим множеством называется:

перейти к ответу ->>

В чем основное отличие ассоциативной памяти от адресной?

перейти к ответу ->>

Пусть при Больцмановском обучении сделанное изменение весовых значений увеличило целевую функцию. Всегда ли сделанное изменение скидывается?

перейти к ответу ->>

В алгоритме обучения Хэбба предполагается обучение:

перейти к ответу ->>

Если сеть имеет небольшое число нейронов в скрытых слоях, то:

перейти к ответу ->>

Входная звезда Гроссберга используется для:

перейти к ответу ->>

Задачей сети АРТ является:

перейти к ответу ->>

В начальный момент времени выходом слоя распознавания является:

перейти к ответу ->>

Сколько булевых функций от двух переменных можно представить персептроном?

перейти к ответу ->>

В задаче коммивояжера каждый город представляется:

перейти к ответу ->>

Память называется гетероассоциативной, если:

перейти к ответу ->>

Теория обучения Хэбба подразумевает:

перейти к ответу ->>

Обучение слоя Гроссберга является:

перейти к ответу ->>

Кратковременной памятью сети ДАП называется:

перейти к ответу ->>

Область связи пресиноптического тормозящего нейрона:

перейти к ответу ->>

Приращение веса тормозящего входа данного постсиноптического нейрона зависит от:

перейти к ответу ->>

Можно ли построить двухслойную нейронную сеть, выделяющую неограниченную область?

перейти к ответу ->>

Алгоритм обратного распространения работает, пока:

перейти к ответу ->>

Для какого алгоритма более опасен сетевой паралич?

перейти к ответу ->>

Самоадаптацией алгоритма обучения сети АРТ называется:

перейти к ответу ->>

При обучении неокогнитрона обучаются:

перейти к ответу ->>

Какая активационная функция используется в персептроне?

перейти к ответу ->>

Сеть Хопфилда заменяется на сеть Хэмминга, если:

перейти к ответу ->>

Однонейронный персептрон с двумя входами:

перейти к ответу ->>

Проблема переобучения заключается в:

перейти к ответу ->>

Каждый слой неокогнитрона состоит из:

перейти к ответу ->>

Стратегия избежания локальных минимумов при сохранении стабильности заключается в

перейти к ответу ->>

Метод восстановления ассоциаций заключается в том, что:

перейти к ответу ->>

Метод обучения Уидроу-Хоффа отличается от метода обучения персептрона

перейти к ответу ->>

Искусственный нейрон

перейти к ответу ->>

Паралич сети может наступить, когда:

перейти к ответу ->>

Говорят, что в сети АРТ возник адаптивный резонанс, если:

перейти к ответу ->>

Какой должна быть активационная функция, для того чтобы возможно было применять алгоритм обратного распространения?

перейти к ответу ->>