La matrice di confusione è uno strumento utile nell’ambito della valutazione delle performance di un modello di Classificazione. Essa mostra quanti elementi di ciascuna classe sono stati classificati correttamente e quanti sono stati erroneamente classificati. La matrice di confusione è semplicemente una matrice quadrata che rileva il conteggio dei veri positivi e dei veri negativi, dei falsi positivi e dei falsi negativi nelle previsioni di un classificatore
Esempio
Immagina di avere un modello che deve distinguere tra gatti e cani basandosi su immagini. La matrice di confusione ti aiuta a capire quante volte il modello ha fatto predizioni corrette e quante volte ha commesso errori, indicando se ha confuso gatti con cani o viceversa.
Supponiamo che abbiamo 10 immagini:
- 4 immagini di gatti che il modello ha correttamente identificato come gatti.
- 3 immagini di cani che il modello ha correttamente identificato come cani.
- 1 immagini di gatti che il modello ha erroneamente classificato come cani.
- 2 immagine di cane che il modello ha erroneamente classificato come gatto.
La matrice di confusione visualizzata è la seguente: Si nota che 2 volte ho predetto “Gatto” e invece era “Cane” e 1 volta ho predetto “Cane” e invece era “Gatto”.