База ответов ИНТУИТ

Машинное обучение

<<- Назад к вопросам

К чему приводит уменьшение параметра
E_{max}
при оптимизации сложности решающего списка?

(Отметьте один правильный вариант ответа.)

Варианты ответа
к покрытию всей выборки;
к снижению числа ошибок на обучении;(Верный ответ)
к невозможности найти правило с информативностью выше
I_{min}
по остатку выборки.
Похожие вопросы
Чему способствует уменьшение параметра
\lambda
?
На что, из ниже перечисленного, влияют параметры
D_{min}
и
E_{max}
?
Чему способствует увеличение параметра
\lambda
?
Что поступает на вход рекурсивного алгоритма синтеза бинарного решающего дерева
ID3
?
Что является выходными данными в алгоритме синтеза бинарного решающего дерева
ID3
?
Что не является входными данными в алгоритме синтеза бинарного решающего дерева
ID3
?
Если известны
P_y = P(y)
и
P_y(x) = p(x|y)
, и
\lambda_{yy} = 0
, а
\lambda_{ys} = \lambda_y
для всех
y
,
s \in Y
, то минимум среднего риска
R(a)
достигается при:
Если выполнены условия: 1) выборка
X^m
простая, получена из плотности распределения
p(x)
; 2) ядро
K(z)
непрерывно, его квадрат ограничен:
\int_x k^z (z)dz<\infty
; 3) последовательность
h_m
такова, что
\lim_{\limits {m \to \infty}} h_m = 0
и
\lim _{\limits{m \to \infty}} mh_m = \infty
, тогда:
На предположении, что плотность распределения известна с точностью до параметра,
p(x) = \varphi (x, \Theta)
, где
\varphi
- фиксированная функция, основано:
Верно ли, что по мере увеличения сложности модели
|G|
внутренний критерий возрастает?