База ответов ИНТУИТ

Машинное обучение

<<- Назад к вопросам

Верно ли, что если классы имеют нормальные функции правдоподобия, то байесовское решающее правило имеет квадратичную разделяющую поверхность.

(Отметьте один правильный вариант ответа.)

Варианты ответа
Нет
Да(Верный ответ)
Похожие вопросы
Если байесовское решающее правило написать через апостериорные вероятности, то получится формула вида:
К какому классу отнесет объект решающее правило С:
C(b) \equiv C(b^{(1)},...,b^\mu) = \arg \max_{y \in Y} b^{(y)}
?
Верно ли, что если правило
\varphi_c^t(x)=1
, то объект будет определен в другом классе?
Верно ли утверждение. Функции правдоподобия принадлежат параметрическому семейству распределений
\varphi(x;\Theta)
и отличаются только значениями параметра
p_j(x) = \varphi(x;\Theta)
.
Верно ли что, если обучающая выборка имеет большой объем или если решается задача классификации, то можно использовать метод стохастического градиента с адаптивным шагом?
Верно ли что, если обучающая выборка имеет большой объем, то можно использовать метод Хебба?
Что такое решающее дерево?
Константы смеси имеют
n
-мерные нормальные распределения
\varphi(x;\Theta_j) = N(x;\mu_j,\Sigma_j)
с параметрами
\Theta_j = (\mu_j,\Sigma_j)
, где
\Sigma_j \in R^{n \times n}
- это:
Константы смеси имеют
n
-мерные нормальные распределения
\varphi(x;\Theta_j) = N(x;\mu_j,\Sigma_j)
с параметрами
\Theta_j = (\mu_j,\Sigma_j)
, где
\mu_j \in R^n
- это:
Что такое бинарное решающее дерево?