Menu
menu

Dans la section précédente, nous avons fourni un exemple intuitif pour comprendre la classification à l`aide de Naive Bayes. La présente section détaille les questions techniques en jeu. Les classificateurs Naive Bayes peuvent gérer un nombre arbitraire de variables indépendantes, qu`elles soient continues ou catégoriques. Étant donné un ensemble de variables, X = {x1, x2, x…, xD}, nous voulons construire la probabilité postérieure pour l`événement CJ parmi un ensemble de résultats possibles C = {C1, C2, c…, CD}. Dans un langage plus familier, X est les prédicteurs et C est l`ensemble des niveaux catégoriques présents dans la variable dépendante. Utilisation de la règle de Bayes: dans gaussien Naive Bayes, les valeurs continues associées à chaque entité sont supposées être distribuées en fonction d`une distribution gaussienne. Une distribution gaussienne est également appelée distribution normale. Lorsqu`il est tracé, il donne une courbe en forme de cloche qui est symétrique sur la moyenne des valeurs d`entité comme illustré ci-dessous: après avoir utilisé les classificateurs bayésiens naïfs abondamment dans les outils de classification de segmentation, mon expérience est cohérente avec les documents publiés montrant NBC pour être comparable en précision à linéaire discriminante et CART/CHAID lorsque toutes les variables prédictifs sont disponibles. C`est là que les naïfs Bayes peuvent aider. Naive Bayes étend le théorème de Bayes pour gérer ce cas en supposant que chaque point de données est indépendant. La technique du classificateur Naive Bayes est basée sur le théorème bayésien et est particulièrement adaptée lorsque la dimensionnalité des entrées est élevée.

En dépit de sa simplicité, Naive Bayes peut souvent surpasser les méthodes de classification plus sophistiquées. Si vous pensez à la façon de mettre en œuvre votre idée, vous trouverez rapidement les objections de pourquoi il ne fonctionne pas. Cela laisse généralement de bons concepteurs faire une amélioration progressive à un processus existant. C`est ainsi qu`on finit avec 10% ou 20% d`améliorations plutôt qu`une idée totalement réinventée. Naive Bayes peut être modélisé de différentes façons, y compris les fonctions normales, lognormales, gamma et de densité de poisson: Voici les applications courantes des algorithmes Naive Bayes: maintenant, nous examinons une implémentation de classifieur Naive Bayes gaussien en utilisant scikit-apprendre. Naive Bayes est une technique simple pour construire des classificateurs: les modèles qui attribuent des étiquettes de classe aux instances problématiques, représentées en tant que vecteurs de valeurs d`entités, où les étiquettes de classe sont dessinées à partir d`un ensemble fini. Il n`existe pas un seul algorithme pour la formation de ces classificateurs, mais une famille d`algorithmes basés sur un principe commun: tous les classificateurs Bayes naïfs supposent que la valeur d`une entité particulière est indépendante de la valeur de n`importe quelle autre entité, étant donné la variable de classe.