База ответов ИНТУИТ

Машинное обучение

<<- Назад к вопросам

Чему способствует уменьшение параметра
\lambda
?

(Ответ считается верным, если отмечены все правильные варианты ответов.)

Варианты ответа
к ошибке всей композиции.
переобучению;(Верный ответ)
росту числа ошибок;
росту числа базовых алгоритмов;(Верный ответ)
Похожие вопросы
Чему способствует увеличение параметра
\lambda
?
Что не способствует уменьшению параметра
\lambda
?
К чему приводит уменьшение параметра
E_{max}
при оптимизации сложности решающего списка?
Если известны
P_y = P(y)
и
P_y(x) = p(x|y)
, и
\lambda_{yy} = 0
, а
\lambda_{ys} = \lambda_y
для всех
y
,
s \in Y
, то минимум среднего риска
R(a)
достигается при:
Если выполнены условия: 1) выборка
X^m
простая, получена из плотности распределения
p(x)
; 2) ядро
K(z)
непрерывно, его квадрат ограничен:
\int_x k^z (z)dz<\infty
; 3) последовательность
h_m
такова, что
\lim_{\limits {m \to \infty}} h_m = 0
и
\lim _{\limits{m \to \infty}} mh_m = \infty
, тогда:
На предположении, что плотность распределения известна с точностью до параметра,
p(x) = \varphi (x, \Theta)
, где
\varphi
- фиксированная функция, основано:
Если в корректирующей операции
b(x) = F(b_1(x),g_1(x),...,b_r(x), g_r(x)) = \sum_{t=1}^T gt(x) b_t(x)
функция
gt(x)
принимает только два значения
\{0,1\}
, то множество всех
x \in X
, для которых
gt(x) = 1
, называется:
Верно ли утверждение. Функции правдоподобия принадлежат параметрическому семейству распределений
\varphi(x;\Theta)
и отличаются только значениями параметра
p_j(x) = \varphi(x;\Theta)
.
Чему соответствует точечное ядро
k(z)=[z=0]
при единичной ширине окна
h=1
:
Чему эквивалентна минимизация функционала
Q(a) = Q(F(b_1,...,b_t))
по базовому алгоритму
b_t
?