База ответов ИНТУИТ

Машинное обучение

<<- Назад к вопросам

На локальной аппроксимации плотности
p(x)
в окрестности классифицируемого объекта
x \in X
основано:

(Отметьте один правильный вариант ответа.)

Варианты ответа
восстановление смеси плотностей
эмпирическая оценка плотности
непараметрическое восстановление плотности(Верный ответ)
параметрическое восстановление плотности
Похожие вопросы
Если выполнены условия: 1) выборка
X^m
простая, получена из плотности распределения
p(x)
; 2) ядро
K(z)
непрерывно, его квадрат ограничен:
\int_x k^z (z)dz<\infty
; 3) последовательность
h_m
такова, что
\lim_{\limits {m \to \infty}} h_m = 0
и
\lim _{\limits{m \to \infty}} mh_m = \infty
, тогда:
Если в корректирующей операции
b(x) = F(b_1(x),g_1(x),...,b_r(x), g_r(x)) = \sum_{t=1}^T gt(x) b_t(x)
функция
gt(x)
принимает только два значения
\{0,1\}
, то множество всех
x \in X
, для которых
gt(x) = 1
, называется:
Какой алгоритм представляет функцию
a:X \to Y
, которая любому объекту
x \in X
ставит в соответствие метку кластера
y \in Y
?
Если известны
P_y = P(y)
и
P_y(x) = p(x|y)
, и
\lambda_{yy} = 0
, а
\lambda_{ys} = \lambda_y
для всех
y
,
s \in Y
, то минимум среднего риска
R(a)
достигается при:
Какой получится алгоритм, если
h
определить как наибольшее число, при котором ровно
k
ближайших соседей объекта
u
получают нулевые веса:
h(u)=\rho(u,x_u^{(k+1)})
.
Есть гипотеза, где классы имеют
n
-мерные гауссовские плотности:
p_y(x) = N(x; \mu_y; \sum y) = \frac {e^{-\frac{1}{2}(x-\mu_y)^T \sum \limits_ {y}^{-1} (x-\mu_y) } }{\sqrt {(2\pi)^n det \sum_y}}
, где -
y \in Y
, то вектором матожидания класса
y \in Y
будет:
Есть гипотеза, где классы имеют
n
-мерные гауссовские плотности:
p_y(x) = N(x; \mu_y; \sum y) = \frac {e^{-\frac{1}{2}(x-\mu_y)^T \sum \limits_ {y}^{-1} (x-\mu_y) } }{\sqrt {(2\pi)^n det \sum_y}}
, где -
y \in Y
, то ковариационной матрицей класса
y \in Y
будет:
Как называется величина
M_i(w) = y_if(x_i,w)
объекта
x_i
относительно алгоритма классификации
a(x, w) = sign f(x, w)
?
Как называется величина
M_i(w) = y_if(x_i,w)
объекта
x_i
относительно алгоритма классификации
a(x, w) = sign f(x, w)
?
В формуле совместной плотности
p(x,y) = p(x) P(y|x) = P(y)p(x|y)
функцией апостеорной вероятности класса
y
будет функция: