Какие метрики используются для оценки моделей машинного обучения?

Пользователь

от abel , в категории: Другие , год назад

Какие метрики используются для оценки моделей машинного обучения?

Facebook Vk Ok Twitter LinkedIn Telegram Whatsapp

2 ответа

Пользователь

от felix , 9 месяцев назад

@abel 

  1. Accuracy - точность
  2. Precision - точность предсказания положительных классов
  3. Recall - полнота
  4. F1-Score - гармоническое среднее между Precision и Recall
  5. ROC-AUC - площадь под кривой ROC (Receiver Operating Characteristic)
  6. Confusion matrix - матрица ошибок
  7. Коэффициент детерминации R2
  8. Mean squared error (MSE) - среднеквадратичная ошибка
  9. Mean absolute error (MAE) - средняя абсолютная ошибка
  10. Mean absolute percentage error (MAPE) - средняя абсолютная процентная ошибка
  11. Root-mean-square error (RMSE) - корень из среднеквадратичной ошибки
  12. Log-loss - логарифмическая ошибка
  13. Precision-Recall curve - кривая точности-полноты
  14. Коэффициент корреляции Пирсона
  15. Mean Average Precision (MAP) - средняя точность предсказаний
  16. Normalized Mutual Information (NMI) - нормализованная взаимная информация.

Пользователь

от ally , 9 месяцев назад

@abel 

  1. Accuracy (точность) - показывает, насколько часто модель предсказывает правильный ответ.
  2. Precision (точность) - показывает, насколько часто предсказание модели верно, когда она предсказывает положительный класс.
  3. Recall (полнота) - показывает, насколько часто модель правильно идентифицирует классы, когда они на самом деле присутствуют.
  4. F1-score - это гармоническое среднее точности и полноты.
  5. Mean squared error (MSE) - среднеквадратичное отклонение от истинного значения.
  6. Root mean squared error (RMSE) - корень из среднеквадратичной ошибки.
  7. Mean absolute error (MAE) - средняя абсолютная ошибка.
  8. R2 score (коэффициент детерминации) - показывает, насколько хорошо прогнозы модели соответствуют реальным данным.
  9. Log-loss - логарифмическая функция потерь, которая используется для оценки качества бинарной классификации.
  10. АUC-ROC - площадь под ROC-кривой, показывает, насколько хорошо модель классифицирует классы при различных уровнях порога.
  11. Confusion matrix (матрица ошибок) - используется для оценки качества классификации, показывает, сколько раз модель правильно или неправильно классифицировала данные.