Les algorithmes naïfs Bayes sont principalement utilisés dans l`analyse des sentiments, le filtrage du spam, les systèmes de recommandation, etc. Ils sont rapides et faciles à mettre en œuvre, mais leur plus grand inconvénient est que l`exigence de prédicteurs d`être indépendant. Dans la plupart des cas de vie réelle, les prédicteurs sont dépendants, ce qui entrave les performances du classifieur. Voici quelques conseils pour améliorer la puissance du modèle Naive Bayes: dans les statistiques et la littérature informatique, les modèles naïfs Bayes sont connus sous une variété de noms, y compris les simples Bayes et l`indépendance Bayes. Tous ces noms font référence à l`utilisation du théorème de Bayes dans la règle de décision du classifieur, mais naïfs Bayes n`est pas (nécessairement) une méthode bayésienne [4]. 1 [4] ABSTRACTLY, Naïve Bayes est un modèle de probabilité conditionnelle: étant donné une instance de problème à classer, représentée par un vecteur x = (x 1,…, x n) {displaystyle mathbf {x} = (x_ {1}, dots, x_ {n})} représentant certaines entités n (variables indépendantes), il assigne aux probabilités de cette instance nous avons maintenant une relation entre la cible et les entités utilisant le théorème de Bayes ainsi qu`une supposition naïve que toutes les fonctionnalités sont indépendantes. Les hypothèses sur les distributions des entités sont appelées le modèle d`événement du classifieur Naive Bayes. Pour les fonctions discrètes comme celles rencontrées dans la classification des documents (y inclus le filtrage du spam), les distributions multinomiales et Bernoulli sont populaires. Ces hypothèses conduisent à deux modèles distincts, qui sont souvent confondus. 9 [10] maintenant, avant de passer à la formule pour Naive Bayes, il est important de connaître le théorème de Bayes. Avec un modèle d`événement multinomiale, les exemples (vecteurs de fonctionnalité) représentent les fréquences avec lesquelles certains événements ont été générés par un multinomiale (p 1,…, p n) {displaystyle (P_ {1}, dots, P_ {n})} où p i {displaystyle P_ {i}} est la probabilité que l`événement se produit (ou K de telles multinomiales dans le cas multiclasse). Un vecteur de fonction x = (x 1,…, x n) {displaystyle mathbf {x} = (x_ {1}, dots, x_ {n})} est alors un histogramme, avec x i {displaystyle x_ {i}} en comptant le nombre de fois où l`événement i a été observé dans une instance particulière.

Il s`agit du modèle d`événement généralement utilisé pour la classification des documents, avec des événements représentant l`occurrence d`un mot dans un document unique (Voir l`hypothèse de sac de mots).

Categories: Allgemein

Comments are closed.

Twitter updates

RSS not configured

Sponsors