Use APKPure App
Get Confusion Matrix Calculator old version APK for Android
Determina diverse misure statistiche come sensibilità, specificità e altro.
Questo calcolatore della matrice di confusione determina diverse misure statistiche legate alle prestazioni dei modelli di classificazione come: sensibilità, specificità, valore predittivo positivo (precisione), valore predittivo negativo, tasso di falsi positivi, tasso di falsa scoperta, tasso di falsi negativi, accuratezza e coefficiente di correlazione di Matthews .
Misure statistiche basate sulla matrice di confusione
La matrice di confusione è la rappresentazione popolare delle prestazioni dei modelli di classificazione e include i valori classificati correttamente e non correttamente rispetto ai risultati effettivi nei dati del test. Le quattro variabili sono:
Vero positivo (TP) - che è il risultato in cui il modello prevede correttamente la classe positiva (la condizione viene rilevata correttamente quando presente);
Vero negativo (TN) – che è il risultato in cui il modello prevede correttamente la classe negativa (condizione non rilevata quando assente);
Falso positivo (FP) - che è il risultato in cui il modello prevede erroneamente una classe positiva (la condizione viene rilevata nonostante sia assente);
Falso negativo (FN) – che è il risultato in cui il modello prevede erroneamente una classe negativa (la condizione non viene rilevata nonostante sia presente).
Una delle misure statistiche più comunemente determinate è la sensibilità (nota anche come richiamo, tasso di successo o tasso di vero positivo TPR). La sensibilità misura la proporzione di effettivi positivi che sono correttamente identificati come positivi.
Sensibilità = TP / (TP + FN)
La specificità, nota anche come selettività o vero tasso negativo (TNR), misura la proporzione di effettivi negativi correttamente identificati come negativi.
Specificità = TN / (FP + TN)
Il valore predittivo positivo (PPV), noto anche come precisione e il valore predittivo negativo (NPV) sono la proporzione di risultati positivi e negativi che sono veri positivi, rispettivamente veri negativi. Sono anche chiamati accordi predittivi positivi o negativi e sono misure delle prestazioni di un test diagnostico.
Valore predittivo positivo (Precisione) = TP / (TP + FP)
Valore predittivo negativo = TN / (TN + FN)
Il tasso di falsi positivi (FPR) o fall-out è il rapporto tra il numero di eventi negativi erroneamente classificati come positivi (falsi positivi) e il numero totale di eventi negativi effettivi (indipendentemente dalla classificazione).
Tasso di falsi positivi = FP / (FP + TN)
Il False Discovery Rate (FDR) è un approccio statistico utilizzato nei test di ipotesi multiple per correggere confronti multipli.
Tasso di falsa scoperta = FP / (FP + PT)
Il False Negative Rate (FNR) misura la proporzione di individui in cui è presente una condizione per cui il risultato del test è negativo.
Tasso di falsi negativi = FN / (FN + TP)
L'accuratezza (ACC) è una misura della distorsione statistica
Precisione = (TP + TN) / (TP + TN + FP + FN)
Il punteggio F1 è una misura dell'accuratezza di un test, definita come la media armonica di precisione e richiamo.
Punteggio F1 = 2TP / (2TP + FP + FN)
Il coefficiente di correlazione di Matthews (MCC) descrive come la modifica del valore di una variabile influirà sul valore di un'altra e restituisce un valore compreso tra -1 e 1:
+1 descrive una previsione perfetta;
0 non è in grado di restituire alcuna informazione valida (non meglio di una previsione casuale);
-1 descrive la completa incoerenza tra previsione e osservazione.
Coefficiente di correlazione di Matthews = (TP x TN – FP x FN) / (sqrt((TP+FP) x (TP+FN) x (TN+FP) x (TN+FN)))
Caricata da
Alyson Magalhães
È necessario Android
Android 4.1+
Categoria
Segnala
Use APKPure App
Get Confusion Matrix Calculator old version APK for Android
Use APKPure App
Get Confusion Matrix Calculator old version APK for Android