Calcula exactitud, precisión, recall, puntuación F1 y otras métricas de clasificación desde valores de matriz de confusión. Esencial para evaluar el rendimiento de modelos de aprendizaje automático.
Cargar Escenario Predefinido
Valores de Matriz de Confusión
También podrías encontrar útiles estas calculadoras
Estima el tiempo y costo de entrenamiento de modelos de aprendizaje automático
Calcula pasos de entrenamiento, iteraciones y optimización de lotes
Calcula parámetros y memoria de modelos LLM/transformers
Calcula requisitos de VRAM para inferencia de LLM
Comprender las métricas de clasificación es crucial para el éxito del aprendizaje automático. Esta calculadora transforma tu matriz de confusión en información accionable - desde la exactitud básica hasta métricas avanzadas como el Coeficiente de Correlación de Matthews. Ya sea que estés construyendo un filtro de spam, sistema de diagnóstico médico o detector de fraude, estas métricas revelan el verdadero rendimiento de tu modelo.
Las métricas de clasificación cuantifican qué tan bien tu modelo distingue entre clases. La matriz de confusión contiene cuatro valores: Verdaderos Positivos (predicciones positivas correctas), Verdaderos Negativos (predicciones negativas correctas), Falsos Positivos (errores tipo I) y Falsos Negativos (errores tipo II). De estos, derivamos exactitud, precisión, recall y puntuación F1 - cada uno revelando diferentes aspectos del rendimiento del modelo.
Fórmula del Score F1
F1 = 2 × (Precisión × Recall) / (Precisión + Recall)La exactitud sola puede ser engañosa con datasets desbalanceados. Un modelo prediciendo 'sin fraude' para todo logra 99% de exactitud pero no detecta ningún fraude.
Entiende el balance de tu modelo - alta precisión significa pocas falsas alarmas, alto recall significa perder pocos casos positivos.
Compara diferentes modelos objetivamente usando métricas estandarizadas para seleccionar el mejor.
Las métricas ayudan a ajustar los umbrales de clasificación para balancear precisión y recall según tu caso de uso.
Traduce el rendimiento del modelo en términos de negocio - qué porcentaje de positivos detectamos vs falsas alarmas generadas.
El alto recall es crítico - preferimos falsos positivos que perder enfermedades reales. Sensibilidad/especificidad son métricas clave.
Balancea precisión y recall - muy agresivo atrapa spam pero pierde correos legítimos, muy permisivo deja pasar spam.
Con datos altamente desbalanceados, enfócate en precisión y recall en lugar de exactitud. MCC proporciona una vista balanceada.
Alta precisión asegura que los defectos marcados son reales; alto recall asegura que no se pierden defectos.
La puntuación F1 balancea precisión y recall cuando falsos positivos y negativos tienen costos similares.
Usa estas métricas en validación cruzada para asegurar que el modelo generaliza bien en diferentes divisiones de datos.
La precisión mide cuántos positivos predichos son realmente positivos (VP/(VP+FP)). El recall mide cuántos positivos reales fueron predichos correctamente (VP/(VP+FN)). Alta precisión = pocas falsas alarmas; alto recall = se pierden pocos positivos.