База ответов ИНТУИТ

Основы теории нейронных сетей - ответы

Количество вопросов - 372

Всегда ли обученная сеть ДАП является устойчивой?

Алгоритм обучения персептрона – это:

В аналого-цифровом преобразователе весовые значения интерпретируют:

Задачей комплексных узлов является:

Если ошибка сети на контрольном множестве стала расти, это означает, что:

Вопрос о выборе шага при применении процедуры обучения решается следующим образом:

Какое минимальное количество слоев должна иметь нейронная сеть, для того чтобы к ней возможно было применить алгоритм обратного распространения?

Если матрица весов не является симметричной, то будет ли данная сеть обратного распространения устойчивой?

Лотарально-тормозящая связь используется :

Если случайные изменения весовых значений очень малы, то:

Весовые значения тормозящих нейронов из области связи задаются так, чтобы:

Если нейронная сеть не содержит скрытых элементов, то она:

Всегда ли в статистических алгоритмах обучения производится изменение весовых значений?

Метод выпуклой комбинации заключается в том, что в начале процесса обучения всем весам слоя Кохонена присваиваются:

"Победителем" считается нейрон Кохонена

Можем ли мы за конечное число шагов после запуска алгоритма обучения персептрона сказать, что персептрон не может обучиться данной задаче?

Что называется обучающей выборкой для обучения персептрона?

Информация, поступающая из предыдущего слоя неокогнитрона, подается

Есть ли вероятность того, что в алгоритме разобучения сеть "забудет" правильный образ?

Комбинирование методов распространения Коши и обратного распространения заключается в:

Если параметр сходства выбрать неоправданно низким, то:

Фаза поиска считается неуспешно завершенной, если:

Алгоритм обучения Кохонена является:

Что такое "неподатливое" множество образов?

При обучении слоя Кохонена процесс обучения состоит в:

Выходом входной звезды Гроссберга является:

Стохастическим методом обучения называется:

"Обучение без учителя" характеризуется отсутствием:

Метод импульса заключается в:

При обучении когнитрона обучаются:

Что является входом искусственного нейрона?

Матричное умножение XW вычисляет:

Можно ли построить однослойную нейронную сеть с обратными связями?

"Обучение с учителем" это:

Выходом персептрона являются:

Персептронной представимостью называется:

Однонейронным персептроном размерность разделяемого пространства определяется

В однонейронном персептроне размерность разделяющей гиперплоскости определяется:

Может ли персептрон Розенблатта выделять ограниченную область в пространстве решений?

Однослойный персептрон решает задачи:

Подаем на вход персептрона вектор a. В каком случае весовые значения нужно уменьшать?

Теорема о сходных персептронах утверждает, что:

Если данный персептрон заменить персептроном с целочисленными весами, то:

Скрытым слоем обобщенного многослойного персептрона называется:

Если до начала процедуры обучения по алгоритму обратного распространения все весовые значения сети сделать равными, то

Какие из перечисленных ниже шагов в алгоритме обратного распространения являются шагами "обратного прохода"?

При обучении выходного нейрона величина δ является:

Добавление нейронного смещения позволяет:

Если сеть имеет очень большое число нейронов в скрытых слоях, то:

Механизм контрольной кросс-проверки необходим для того, чтобы:

Если сеть слишком близко подгоняет выходные значения к имеющимся обучающим значениям, то:

Если сеть содержит один промежуточный слой, то она моделирует:

Если сеть находится в постоянно меняющейся внешней среде, то:

Если данный нейрон Кохонена является "победителем", то его значение OUT

В процессе обучения слоя Кохонена "победителем" объявляется нейрон

Метод коррекции весов пропорционально входу заключается в:

Если в алгоритме обучения сети встречного распространения на вход сети подается вектор x, то желаемым выходом является

Способна ли сеть встречного распространения аппроксимировать обратимые функции?

При стохастическом методе обучения изменения весовых значений сохраняются, если

При обучении сеть не сможет выбраться из локального минимума, если:

Какова роль искусственной температуры при Больцмановском обучении?

Какая из перечисленных ниже проблем сходимости возникает в алгоритме обратного распространения?

Метод изменений сигналов OUT заключается в том, что:

Отсутствие обратных связей гарантирует:

Если сеть Хопфилда нашла среди запомненных ею образцов, образец соответствующий данному входному вектору, то сеть должна :

Если два образца сильно похожи, то:

Сколько нейронов должна содержать сеть Хемминга для того чтобы она могла запомнить n образцов?

Память называется ассоциативной, если извлечение необходимой информации происходит по:

При ортогонализации исходных образов отрицательным фактором является:

Алгоритмы разобучения применяются для:

Метод машины Больцмана позволяет сети Хопфилда:

В алгоритме обучения обобщенной машины Больцмана вычисление закрепленных вероятностей начинается после:

Задачей аналого-цифрового преобразователя является то, что:

Автоассоциативность памяти обусловлена:

В какой зависимости находятся веса синаптических связей, исходящих из первого слоя нейронов, от весов синаптических связей, исходящих из второго слоя нейронов?

Способность ДАП к обобщению заключается в:

Сеть ДАП называется конкурирующей, если:

Почему изученные ранее нейронные сети не обладают свойством стабильности-пластичности?

Шаблоном критических черт называется:

В сети АРТ запомненный образ подвергается изменению:

Из слоя распознавания информация поступает в:

В начальный момент времени выходом слоя сравнения является

Фаза распознавания инициализируется:

В фазе сравнения блок сброса:

Суть алгоритма медленного обучения в том, что:

Характеристика "прямого доступа" заключается в том, что:

Величиной NET нейрона когнитрона является:

Весовые значения тормозящих нейронов:

Если возбуждающие и тормозящие входы данного нейрона достаточно велики, то его выходной сигнал OUT будет вычисляться по формуле:

При предъявлении на вход обученного когнитрона некоторого вектора

Латеральное торможение данный нейрон получает:

Рецептивной областью данного простого узла называется:

Различные узлы в одной плоскости простых узлов реагируют:

При использовании неокогнитрона как классификатора, можем ли мы классифицировать образы независимо от их позиции, ориентации, размера и т.п.?

При каких из ниже перечисленных условий, в алгоритме обучения неокогнитрона "без учителя" происходит обучение данной синоптической связи?

В алгоритме Хэбба величина изменения синоптической связи между двумя нейронами зависит:

Выходом выходной звезды Гроссберга является

Обучение персептрона считается законченным, когда:

В статистических алгоритмах обучения величина изменения синоптической связи между двумя нейронами зависит:

Самоорганизующиеся сети используются для:

Если статическая сеть Хопфилда обладает низкой искусственной температурой, то более вероятными становятся:

Способность неокогнитрона к самовосстановлению выражается в:

В чем заключается отличие АРТ-1 от АРТ-2?

Что означает величина NET?

В алгоритме обучения Кохонена, увеличивая пороговое значение расстояния между входным вектором и весовыми значениями нейрона, мы можем добиться:

Обучение слоя Кохонена является:

Непрерывная сеть Хопфилда является устойчивой, если:

Сеть с обратным распространением называется неустойчивой, если:

Суть алгоритма быстрого обучения в том, что:

Теорема о двухслойности персептрона утверждает, что:

Какими должны быть весовые значения тормозящих синаптических связей?

Тестовое множество необходимо для:

Если параметр сходства выбрать неоправданно высоким, то:

Задача сети Хопфилда заключается в

Дискриминантной функцией называется:

Что такое множество весовых значений нейрона?

Сетью без обратных связей называется сеть,

Входным слоем сети называется:

Сети прямого распространения - это:

Обучением называют:

Алгоритм обучения персептрона завершает свою работу, когда

Если на данной обучающей паре символ персептрона не совпадает с нужным ответом, то:

Теорема о "зацикливании" персептрона утверждает, что:

Какая сеть может оказаться недостаточно гибкой, для того чтобы смоделировать имеющуюся зависимость?

При методе кросс-проверки считается, что множество обучающихся пар корректно разделено на две части, если:

Чем тестовое множество отличается от контрольного множества?

Если размер шага очень большой, то:

По принципу "победитель забирает все" действуют:

Задачей слоя Кохонена является:

Целевой функцией называется:

Для какого алгоритма необходимо гораздо большее время сходимости?

Сеть с обратным распространением называется устойчивой, если:

Если среди запомненных сетью Хопфилда образцов не существует образца, подходящего для данного входного вектора, то:

Если сеть Хопфилда содержит n нейронов, то она может запомнить примерно:

Задачей распознавания образов называется:

Метод обучения сети называется локальным, если:

Обучение обобщенной машины Больцмана является:

Гетероассоциативность ДАП достигается путем:

Сеть ДАП достигает стабильного состояния, когда:

Долговременной памятью сети ДАП называется:

Пластичностью называется способность памяти:

Шаблон критических черт используется, когда:

Если входной вектор не соответствует ни одному из запомненных образов, то

В слой сравнения информация поступает из:

В момент времени, отличный от начального, выходом слоя распознавания является

Перед началом процесса обучения сети АРТ все весовые значения, являющиеся входными для слоя распознавания принимают:

В фазе распознавания свертка вычисляется при помощи скалярного произведения

Всегда ли по окончании фазы поиска входному вектору сопоставляется некоторый нейрон из слоя распознавания?

В алгоритме обучения сети АРТ процедура самомасштабирования необходима для того, чтобы:

Если в процессе обучения на вход сети АРТ подавать повторяющиеся последовательности обучающих векторов, то:

Когнитрон является:

Выходом тормозящего пресиноптического нейрона является:

Обучение тормозящего входа возбуждающего нейрона

Приращение веса возбуждающего входа данного постсиноптического нейрона зависит от:

В чем заключается главный недостаток процедуры латерального торможения?

Слой неокогнитрона состоит из

Каждая плоскость простых узлов реагирует

Простой узел возбуждается, если:

Чем различаются комплексные узлы, лежащие в разных слоях неокогнитрона?

Какой тип обучения можно использовать при обучении неокогнитрона?

В алгоритме сигнального обучения Хэбба величина синоптической связи между двумя нейронами зависит :

В алгоритме обучения выходной звезды Гроссберга величина синоптической связи между двумя нейронами зависит

Алгоритм обучения персептрона является:

Почему для статистических алгоритмов обучения распределение Коши является более приемлемым, чем распределение Больцмана?

В алгоритме обучения Кохонена величина синоптической связи между двумя нейронами зависит:

Добавление к коррекции веса значения, пропорционального величине предыдущего изменения веса, используется при методе:

Обучение сети ДАП происходит:

В алгоритме обучения обобщенной машины Больцмана закрепленные вероятности вычисляются, когда:

Чем отличается обучение скрытого нейрона от обучения выходного нейрона?

При каком алгоритме обучения обучающее множество состоит только из входных векторов?

Выпуклой областью называется:

В методе измерений сигнала OUT роль дополнительной сжимающей функции заключается в...

Устойчивость процесса поиска заключается в том, что:

В фазе сравнения в слое сравнения возбуждаются те нейроны, которым соответствуют:

Пусть F - обратимая функция и F(x)=y. Если сеть встречного распространения обучена аппроксимировать эту функцию, то, если на вход подать только вектор x , на выходе мы получим:

В каждом слое неокогнитрона

Сколько слоев полноценных нейронов используется в сети Хопфилда?

Какие весовые значения должны быть навешаны на сеть до начала процедуры обучения?

В алгоритме обучения с учителем сравнение реального выхода с желаемым происходит:

В каком случае сигнал OUT совпадает с сигналом NET для данного нейрона когнитрона?

Входом персептрона являются:

Синаптические связи называются тормозящими, если :

Внутренней памятью нейрона называется:

Метод дифференциального обучения Хэбба заключается в том, что в нем для изменения синоптических связей учитываются:

Месторасположением узла в данной плоскости простых узлов определяется

Механизм контрольной кросс-проверки заключается в:

Если сеть содержит два промежуточных слоя, то она моделирует:

При обучении слоя Кохонена подстраиваются весовые значения:

Пусть F - обратимая функция и F(x)=y. Если сеть встречного распространения обучена аппроксимировать эту функцию, то, если на вход подать только вектор y, на выходе мы получим:

Какие сети характеризуются отсутствием памяти?

В каком случае персептрон может обучиться решать данную задачу?

Если блок сброса выработал сигнал сброса, то:

Активационная функция применяется для:

Слоем нейронной сети называется множество нейронов,

Как происходит обучение нейронной сети?

Персептроном Розенблатта называется:

Какая из следующих функций непредставима персептроном?

В однонейронном персептроне длина входного вектора характеризует:

Подаем на вход персептрона вектор а. В каком случае весовые значения нужно увеличивать?

Входным слоем обобщенного многослойного персептрона называется:

Какие из перечисленных ниже шагов в алгоритме обратного распространения являются шагами "прохода вперед"?

Алгоритм обратного распространения заканчивает свою работу, когда:

При методе кросс-проверки считается, что сеть начала переобучаться, если:

Если размер шага очень мал, то:

Детерминистским методом обучения называется:

Если случайные изменения весовых значений очень велики, то:

В чем преимущество метода Коши перед Больцмановским методом обучения?

Для какого алгоритма скорость обучения более высокая?

Сеть называется сетью с обратными связями, если:

Состоянием сети Хопфилда называется :

Какая сеть требует меньших затрат вычислительных ресурсов?

При методе отказа от симметрии синапсов отрицательным фактором является:

В алгоритме разобучения в качестве степени забывания выбирают достаточно малое число для того, чтобы:

В алгоритме обучения обобщенной машины Больцмана вычисление незакрепленных вероятностей начинается после:

В сети ДАП выходы второго слоя нейронов являются:

Если на вход ДАП подать частично обнуленный вектор, то сеть выдаст также частично обнуленный ассоциированный с ним вектор?

Кодированием ассоциаций называется:

Сеть ДАП называется негомогенной, если:

Если входной вектор соответствует одному из запомненных образов, то:

Из слоя сравнения информация поступает в:

В фазе сравнения значение приемника 1 устанавливается равным:

Фаза поиска считается успешно завершенной, если:

Областью связанности данного нейрона называется:

Принцип "элитного обучения" когнитрона заключается в том, что:

Стратегия обучения когнитрона заключается в том, что:

Каким образом можно уменьшить количество слоев когнитрона, не причинив ущерба его вычислительным свойствам?

Каждой плоскости простых узлов сопоставлено:

Каждый узел в плоскости простых узлов получает вход:

Сколько слоев полноценных нейронов имеет сеть Хэмминга?

Когда алгоритм обучения персептрона зацикливается?

Способна ли одна и та же плоскость простых узлов реагировать как на заданный образ, так и на его произвольный поворот?

В каждом слое неокогнитрона выходы из массива простых плоскостей поступают на вход

Кодирование ассоциаций - это:

Метод интерполяции заключается в:

Если на данной обучающей паре сигнал персептрона совпал с нужным ответом, то нужно

Активационная функция называется "сжимающей", если

В алгоритме обучения обобщенной машины Больцмана изменение весовых значений:

При обучении сети встречного распространения обучающей парой является:

При стохастическом методе обучения , если целевая функция увеличивается, то:

Хорошо обученная входная звезда Гроссберга способна реагировать:

Где в нейронной сети хранится информация о классификации образов?

В статической сети Хопфилда вероятность изменения веса является функцией от:

Чем реакция комплексного узла на данный входной образ отличается от реакции простого узла, лежащего в том же слое?

Активационной функцией называется:

Пусть при обучении Коши сделанное изменение весовых значений увеличило целевую функцию. Всегда ли сделанное изменение скидывается?

Проблема локализованности памяти АРТ заключается в том, что:

Представима ли персептроном любая интуитивно вычислимая задача?

Перед началом процесса обучения сети АРТ все весовые значения, являющиеся выходными для слоя распознавания принимают:

Что означает величина OUT?

В каком случае многослойные сети не могут привести к увеличению вычислительной мощности по сравнению с однослойной сетью?

Сети с обратными связями это:

Сколько слоев должна иметь нейронная сеть, умеющая выделять выпуклые области?

Сколько нейронов должен иметь первый слой нейронной сети, умеющей выделять шестиугольник?

Запускаем обучающий вектор Х. В каком случае весовые значения не нужно изменять?

Обобщенным многослойным персептроном называется:

Сигналом ошибки данного выходного нейрона называется:

Метод ускорения сходимости заключается в:

К переобучению склонны сети с:

Сеть встречного распространения считается обученной, если:

Метод "имитации отжига" заключается в

Пусть при Больцмановском обучении сделанное изменение весовых значений увеличило целевую функцию. Данное изменение не скидывается, если:

Какая из перечисленных ниже проблем локальных минимумов возникает в алгоритме обратного распространения?

При комбинированном методе распределения Коши и обратного распространения изменение веса сохраняется, если:

Если в данной сети найдутся нейроны, которые на этапе функционирования возбуждаются более, чем один раз, то:

Ортогонализация исходных образов позволяет:

Если статическая сеть Хопфилда обладает большой искусственной температурой, то более вероятными становятся:

В алгоритме обучения обобщенной машины Больцмана незакрепленные вероятности вычисляются, когда:

Память называется автоассоциативной, если:

В каком случае сеть ДАП превращается в сеть Хопфилда?

Сеть ДАП называется асинхронной, если:

Фаза поиска инициализируется, если:

Предусмотрена ли в алгоритме обучения когнитрона процедура сбрасывания сильно больших весовых значений?

Если области связи нейронов имеют постоянный размер во всех слоях, то:

Статистические методы обучения являются:

В алгоритме обучения Кохонена обучению подвергаются:

Если в обучающее множество входит множество сходных между собой векторов, то сеть должна научиться:

Функция называется линейно неразделимой, если:

Сеть ДАП называется адаптивной, если:

Рецептивные области узлов каждой плоскости простых узлов

Сеть начала переобучаться, если:

Значение активационной функции является:

Дендритами называются:

При обучении скрытого нейрона величина δ является:

Сколько слоев должна иметь нейронная сеть, умеющая выделять квадрат?

Сколько слоев имеет персептрон Розенблатта?

Нейронная сеть является обученной, если:

В алгоритме обратного распространения при "проходе вперед"

Чтобы избежать паралича сети, необходимо:

Принцип работы слоя Кохонена заключается в том, что:

Модификация алгоритма обучения методом "чувства справедливости" заключается в:

В чем состоит минус метода ограничения диапазона изменений весовых значений?

Метод отказа от симметрии синапсов позволяет:

В методе машины Больцмана изменение состояний нейронов обусловлено:

К какому типу памяти относится ДАП?

Завершает ли сеть работу, если выходы второго слоя стабилизировались, а выходы первого слоя продолжают изменяться?

Обладает ли сеть Хопфилда свойством стабильности-пластичности?

Процесс лотерального торможения обеспечивает, что

Если тормозящий вход данного нейрона слишком мал, то выходной сигнал OUT будет вычисляться по формуле:

После окончания алгоритма обучения информация о "шаблоне" данного класса образов хранится:

В алгоритме обучения персептрона величина изменения синоптической связи между двумя нейронами зависит

Выходным слоем обобщенного многослойного персептрона называется:

Метод импульса позволяет:

Обучение сети встречного распространения является:

Если в процессе обучения некоторый вес был обнулен, то:

Работа блока сброса заключается в:

Со всеми ли нейронами предыдущего слоя связан данный нейрон когнитрона?

В чем преимущество негомогенной сети ДАП перед гомогенной?

Если сеть Хэмминга в каждом слое содержит по n нейронов, то сколько образцов она способна запомнить?

В каком случае после завершения алгоритма обучения можно сделать вывод, что данный персептрон не смог обучиться?

Обучающей парой называется пара векторов,...

Если к обучающему множеству добавить новые вектора, вызовет ли это необходимость переучивать когнитрон заново или нет?

При каком алгоритме обучения обучающее множество состоит как из входных, так и из выходных векторов?

Что называется "эпохой" в алгоритме обучения персептрона?

Все ли нейроны многослойного персептрона возможно обучить?

В алгоритме обратного распространения при "проходе вперед"

При методе кросс-проверки считается, что множество обучающихся пар некорректно разделено на две части, если:

Метод аккредитации заключается в:

Если на вход обученной сети встречного распространения подать частично обнуленный вектор, то на выходе мы получим:

При каком условии сеть обратного распространения является устойчивой?

Стабильностью называется способность памяти:

Правило двух третьих заключается в том, что:

Алгоритм обучения сети АРТ является...

В каждом слое неокогнитрона выходы из массива комплексных плоскостей поступают на вход

При обучении персептрона предполагается обучение:

На вход однослойного персептрона подается вектор (a1...an). В каком случае выходом будет нулевой вектор?

Значением NET нейрона слоя Гроссберга является:

Сколько слоев должна иметь нейронная сеть, умеющая выделять невыпуклые области?

Персептрон Розенблатта решает задачи:

Сколько слоев может содержать персептрон?

Если в непрерывной сети Хопфилда коэффициент, определяющий крутизну сигмовидной функции, взять достаточно большим, то:

Синапсами называются:

Способность персептрона решать определенную задачу называется:

Для решения любой задачи классификации достаточно иметь:

Задача сети Хэмминга заключается в:

Сколько нейронов необходимо для реализации задачи коммивояжера, где n - число городов?

Сколько функциональных модулей включает в себя сеть АРТ?

После окончания алгоритма обучения в нейроне слоя распознавания запоминается информация, являющаяся:

Рецепторной областью комплексного узла называется:

В статистических алгоритмах обучения искусственная температура используется для:

Обучающим множеством называется:

В чем основное отличие ассоциативной памяти от адресной?

Пусть при Больцмановском обучении сделанное изменение весовых значений увеличило целевую функцию. Всегда ли сделанное изменение скидывается?

В алгоритме обучения Хэбба предполагается обучение:

Если сеть имеет небольшое число нейронов в скрытых слоях, то:

Входная звезда Гроссберга используется для:

Задачей сети АРТ является:

В начальный момент времени выходом слоя распознавания является:

Сколько булевых функций от двух переменных можно представить персептроном?

В задаче коммивояжера каждый город представляется:

Память называется гетероассоциативной, если:

Теория обучения Хэбба подразумевает:

Обучение слоя Гроссберга является:

Кратковременной памятью сети ДАП называется:

Область связи пресиноптического тормозящего нейрона:

Приращение веса тормозящего входа данного постсиноптического нейрона зависит от:

Можно ли построить двухслойную нейронную сеть, выделяющую неограниченную область?

Алгоритм обратного распространения работает, пока:

Для какого алгоритма более опасен сетевой паралич?

Самоадаптацией алгоритма обучения сети АРТ называется:

При обучении неокогнитрона обучаются:

Какая активационная функция используется в персептроне?

Сеть Хопфилда заменяется на сеть Хэмминга, если:

Однонейронный персептрон с двумя входами:

Проблема переобучения заключается в:

Каждый слой неокогнитрона состоит из:

Стратегия избежания локальных минимумов при сохранении стабильности заключается в

Метод восстановления ассоциаций заключается в том, что:

Метод обучения Уидроу-Хоффа отличается от метода обучения персептрона

Искусственный нейрон

Паралич сети может наступить, когда:

Говорят, что в сети АРТ возник адаптивный резонанс, если:

Какой должна быть активационная функция, для того чтобы возможно было применять алгоритм обратного распространения?