База ответов ИНТУИТ

Машинное обучение

<<- Назад к вопросам

Если объекты описываются
n
числовыми признаками
f_i:X \to R, i=1,...,n
, тогда:

(Отметьте один правильный вариант ответа.)

Варианты ответа
Точечное ядро
k(z)=[z=0]
при единичной ширине окна
h=1
соответствует
\hat p(x)=\frac{1}{m}\sum_{i=1}^m[x_i=x]
\hat p_h_{m}(x)
сходится к
p(x)
при
m \to \infty
для почти всех
x \in X
, причем скорость сходимости имеет порядок
O(m^{215})
.
Непараметрическая оценка плотности в точке
x = (\xi_1,...,\xi_n) \in X
записывается в следующем виде:
\hat p_h(x) = \frac{1}{n} \sum_{\limits{j=1}}^ n \frac{1}{h_j} K(\frac{\xi_i - f_j(x_i)}{h_j})
(Верный ответ)
Эмперическая оценка плотности определяется как доля точек выборки, лежащих внутри отрезка
[x-h, x+h]
.
Похожие вопросы
Если выполнены условия: 1) выборка
X^m
простая, получена из плотности распределения
p(x)
; 2) ядро
K(z)
непрерывно, его квадрат ограничен:
\int_x k^z (z)dz<\infty
; 3) последовательность
h_m
такова, что
\lim_{\limits {m \to \infty}} h_m = 0
и
\lim _{\limits{m \to \infty}} mh_m = \infty
, тогда:
Если известны
P_y = P(y)
и
P_y(x) = p(x|y)
, и
\lambda_{yy} = 0
, а
\lambda_{ys} = \lambda_y
для всех
y
,
s \in Y
, то минимум среднего риска
R(a)
достигается при:
Если в корректирующей операции
b(x) = F(b_1(x),g_1(x),...,b_r(x), g_r(x)) = \sum_{t=1}^T gt(x) b_t(x)
функция
gt(x)
принимает только два значения
\{0,1\}
, то множество всех
x \in X
, для которых
gt(x) = 1
, называется:
Если объекты
x_i
либо лежат внутри разделяющей полосы, но классифицируются правильно
(0 < \xi_i < 1, 0 < m_i < 1)
, либо попадают на границу классов
(\xi_i = 1, m_i = 0)
, либо вообще относятся к чужому классу
(\xi_i > 1, m_i < 0)
, то их называют:
Что называют
n
-мерным нормальным (гауссовским) распределением с вектором матожидания
\mu \in R^n
и ковариационной матрицей
\sum \in R^{n \times n}
?
Какой получится алгоритм, если ввести функцию ядра
k(z)
невозрастающую на
[0, \infty)
и положив
w(i,u)=k(\frac{1}{h} \rho(u, x_u^{(i)}))
в формуле
a(u;X^l) = \arg \max_{y \in Y} Г_y(u;X^l)
?
Какой получится алгоритм, если
h
определить как наибольшее число, при котором ровно
k
ближайших соседей объекта
u
получают нулевые веса:
h(u)=\rho(u,x_u^{(k+1)})
.
Есть гипотеза, где классы имеют
n
-мерные гауссовские плотности:
p_y(x) = N(x; \mu_y; \sum y) = \frac {e^{-\frac{1}{2}(x-\mu_y)^T \sum \limits_ {y}^{-1} (x-\mu_y) } }{\sqrt {(2\pi)^n det \sum_y}}
, где -
y \in Y
, то ковариационной матрицей класса
y \in Y
будет:
Есть гипотеза, где классы имеют
n
-мерные гауссовские плотности:
p_y(x) = N(x; \mu_y; \sum y) = \frac {e^{-\frac{1}{2}(x-\mu_y)^T \sum \limits_ {y}^{-1} (x-\mu_y) } }{\sqrt {(2\pi)^n det \sum_y}}
, где -
y \in Y
, то вектором матожидания класса
y \in Y
будет:
Константы смеси имеют
n
-мерные нормальные распределения
\varphi(x;\Theta_j) = N(x;\mu_j,\Sigma_j)
с параметрами
\Theta_j = (\mu_j,\Sigma_j)
, где
\Sigma_j \in R^{n \times n}
- это: