web-dev-qa-db-fra.com

Qu'est-ce que «naïf» dans un classificateur naïf de Bayes?

Qu'est-ce que Naive Bayes est naïf?

34
Peddler

Il y a en fait un très bon exemple sur Wikipedia :

En termes simples, un classificateur naïf de Bayes suppose que la présence (ou l'absence) d'une caractéristique particulière d'une classe n'est pas liée à la présence (ou l'absence) de toute autre caractéristique, étant donné la variable de classe. Par exemple, un fruit peut être considéré comme un Apple s'il est rouge, rond et d'environ 4 "de diamètre. Même si ces caractéristiques dépendent l'une de l'autre ou de l'existence de l'autre caractéristiques, un classificateur naïf de Bayes considère que toutes ces propriétés contribuent indépendamment à la probabilité que ce fruit soit une pomme.

Fondamentalement, c'est "naïf" parce qu'il émet des hypothèses qui peuvent s'avérer correctes ou non.

54
laurent

Si vos données sont composées d'un vecteur de caractéristiques X = {x1, x2, ... x10} et de vos étiquettes de classe Y = {y1, y2, .. y5}. Ainsi, un classificateur Bayes identifie l'étiquette de classe correcte comme celle qui maximise la formule suivante:

P(y/X) = P(X/y) * P(y) = P(x1,x2, ... x10/ y) * P(y)

Alors pour, ce n'est toujours pas naïf. Cependant, il est difficile de calculer P (x1, x2, ... x10/Y), donc nous supposons que les caractéristiques sont indépendantes, c'est ce que nous appelons l'hypothèse naïve, par conséquent, nous nous retrouvons avec la formule suivante à la place

P(y/X) = P(x1/y) * P(x2/y) * ... P(x10/y) * P(y)

11
gr33ndata

On l'appelle naïf car il suppose que tous les attributs sont indépendants les uns des autres. Cette hypothèse est la raison pour laquelle on l'appelle naïf, car dans de nombreuses situations du monde réel, cela ne convient pas. Malgré cela, le classificateur fonctionne extrêmement bien dans de nombreuses situations du monde réel et a des performances comparables à celles des réseaux neutres et des SVM dans certains cas (mais pas tous).

5
user3664740

Pour la classification, lorsque nous trouvons la distribution conjointe, le problème est qu'elle ne fait que refléter les données d'apprentissage et qu'elle est également très difficile à calculer. Nous avons donc besoin de quelque chose qui généralise plus utilement.

Le modèle naïf généralise fortement que chaque attribut est distribué indépendamment de tout autre attribut.

Cela aide vraiment à ne pas se soucier dans une large mesure de la dépendance entre les attributs.

1
Nicky

Ici, je partage un bon document de l'explication pratique du classificateur Naive Bayes, qui vous donnera une très bonne idée.

cliquez ici

0