База ответов ИНТУИТ

Машинное обучение

<<- Назад к вопросам

Что означает обнуление веса
w_{hm}
между скрытым и входным слоями?

(Отметьте один правильный вариант ответа.)

Варианты ответа
диагональные элементы доминируют в гессиане.
после стабилизации функционала ошибки Q вектор весов w находится в локальном минимуме.
информация, накопленная в сети, является полезной и не теряется при добавлении новых нейронов.
m-е выходное значение не зависит от h-го нейрона скрытого слоя.(Верный ответ)
h-ый нейрон скрытого слоя не будет учитывать j-й признак.
Похожие вопросы
Что означает, если веса
w_j h
между входными и скрытым слоем будут обнулены?
Какой получится алгоритм, если
h
определить как наибольшее число, при котором ровно
k
ближайших соседей объекта
u
получают нулевые веса:
h(u)=\rho(u,x_u^{(k+1)})
.
Если известны
P_y = P(y)
и
P_y(x) = p(x|y)
, и
\lambda_{yy} = 0
, а
\lambda_{ys} = \lambda_y
для всех
y
,
s \in Y
, то минимум среднего риска
R(a)
достигается при:
Если выполнены условия: 1) выборка
X^m
простая, получена из плотности распределения
p(x)
; 2) ядро
K(z)
непрерывно, его квадрат ограничен:
\int_x k^z (z)dz<\infty
; 3) последовательность
h_m
такова, что
\lim_{\limits {m \to \infty}} h_m = 0
и
\lim _{\limits{m \to \infty}} mh_m = \infty
, тогда:
Если в корректирующей операции
b(x) = F(b_1(x),g_1(x),...,b_r(x), g_r(x)) = \sum_{t=1}^T gt(x) b_t(x)
функция
gt(x)
принимает только два значения
\{0,1\}
, то множество всех
x \in X
, для которых
gt(x) = 1
, называется:
Какой получится алгоритм, если ввести функцию ядра
k(z)
невозрастающую на
[0, \infty)
и положив
w(i,u)=k(\frac{1}{h} \rho(u, x_u^{(i)}))
в формуле
a(u;X^l) = \arg \max_{y \in Y} Г_y(u;X^l)
?
Как будет называться предикат
\varphi(x)
, если
E_c(\varphi,X^l) \le \varepsilon
и
D_c(\varphi, X^l) \ge \delta
при заданных достаточно малом
\varepsilon
и достаточно большом
\delta
из отрезка [0,1]?
Плотность распределения на
X
имеет вид смеси
k
распределений
p(x) = \sum_{j=1}^k w_j p_j(x), \sum_{j=1}^k w_j = 1, w_j \ge 0
, где
w_j(x)
- это:
Плотность распределения на
X
имеет вид смеси
k
распределений
p(x) = \sum_{j=1}^k w_j p_j(x), \sum_{j=1}^k w_j = 1, w_j \ge 0
, где
p_j(x)
- это:
Если объекты
x_i
либо лежат внутри разделяющей полосы, но классифицируются правильно
(0 < \xi_i < 1, 0 < m_i < 1)
, либо попадают на границу классов
(\xi_i = 1, m_i = 0)
, либо вообще относятся к чужому классу
(\xi_i > 1, m_i < 0)
, то их называют: