База ответов ИНТУИТ

Машинное обучение

<<- Назад к вопросам

Выберите верный вариант. Если для каждого класса
c \in Y
построено множество логических правил, специализирующихся на различении объектов данного класса
R_c=\{\varphi_c^t:X \to \{0,1\}|t=1,...,T_c\}
и если
\varphi_c^t(x)=0
, то:

(Отметьте один правильный вариант ответа.)

Варианты ответа
правило
\varphi_c^t
воздержится от классификации объекта Х;
(Верный ответ)
правило
\varphi_c^t
описывает объект
x \in X
к классу С;
правило
\varphi_c^t
отнесет объект
x \in X
к другому классу.
Похожие вопросы
Выберите верный вариант. Если для каждого класса
c \in Y
построено множество логических правил, специализирующихся на различении объектов данного класса
R_c=\{\varphi_c^t:X \to \{0,1\}|t=1,...,T_c\}
и если
\varphi_c^t(x)=1
, то:
Какой алгоритм каждому правилу
\varphi_c^t
приписывает вес
\alpha_c^t \ge 0
, и при голосовании берётся взвешенная сумма голосов
Г_c(x)=\sum_{t=1}^{T_c} \alpha_c^t \varphi_c^t(x), \alpha_c^t \ge 0
?
Если в корректирующей операции
b(x) = F(b_1(x),g_1(x),...,b_r(x), g_r(x)) = \sum_{t=1}^T gt(x) b_t(x)
функция
gt(x)
принимает только два значения
\{0,1\}
, то множество всех
x \in X
, для которых
gt(x) = 1
, называется:
Если известны
P_y = P(y)
и
P_y(x) = p(x|y)
, и
\lambda_{yy} = 0
, а
\lambda_{ys} = \lambda_y
для всех
y
,
s \in Y
, то минимум среднего риска
R(a)
достигается при:
Если выполнены условия: 1) выборка
X^m
простая, получена из плотности распределения
p(x)
; 2) ядро
K(z)
непрерывно, его квадрат ограничен:
\int_x k^z (z)dz<\infty
; 3) последовательность
h_m
такова, что
\lim_{\limits {m \to \infty}} h_m = 0
и
\lim _{\limits{m \to \infty}} mh_m = \infty
, тогда:
Верно ли, что если правило
\varphi_c^t(x)=1
, то объект будет определен в другом классе?
Какой получится алгоритм, если ввести функцию ядра
k(z)
невозрастающую на
[0, \infty)
и положив
w(i,u)=k(\frac{1}{h} \rho(u, x_u^{(i)}))
в формуле
a(u;X^l) = \arg \max_{y \in Y} Г_y(u;X^l)
?
Какой получится алгоритм, если
h
определить как наибольшее число, при котором ровно
k
ближайших соседей объекта
u
получают нулевые веса:
h(u)=\rho(u,x_u^{(k+1)})
.
Есть гипотеза, где классы имеют
n
-мерные гауссовские плотности:
p_y(x) = N(x; \mu_y; \sum y) = \frac {e^{-\frac{1}{2}(x-\mu_y)^T \sum \limits_ {y}^{-1} (x-\mu_y) } }{\sqrt {(2\pi)^n det \sum_y}}
, где -
y \in Y
, то ковариационной матрицей класса
y \in Y
будет:
Есть гипотеза, где классы имеют
n
-мерные гауссовские плотности:
p_y(x) = N(x; \mu_y; \sum y) = \frac {e^{-\frac{1}{2}(x-\mu_y)^T \sum \limits_ {y}^{-1} (x-\mu_y) } }{\sqrt {(2\pi)^n det \sum_y}}
, где -
y \in Y
, то вектором матожидания класса
y \in Y
будет: