Galerie de cartes mentales Top 10 des algorithmes en intelligence artificielle
Pour beaucoup de gens, l'intelligence artificielle est encore une technologie relativement « avancée », mais quelle que soit l'avancée de la technologie, elle part de principes de base. Il existe 10 algorithmes majeurs qui circulent dans le domaine de l’intelligence artificielle. Leurs principes sont simples et ils ont été découverts et appliqués très tôt. Vous les avez peut-être même appris au collège, et ils sont très courants dans la vie. Cet article vous présente ces 10 algorithmes en termes simples
Modifié à 2023-05-29 19:40:10Cent ans de solitude est le chef-d'œuvre de Gabriel Garcia Marquez. La lecture de ce livre commence par l'analyse des relations entre les personnages, qui se concentre sur la famille Buendía et raconte l'histoire de la prospérité et du déclin de la famille, de ses relations internes et de ses luttes politiques, de son métissage et de sa renaissance au cours d'une centaine d'années.
Cent ans de solitude est le chef-d'œuvre de Gabriel Garcia Marquez. La lecture de ce livre commence par l'analyse des relations entre les personnages, qui se concentre sur la famille Buendía et raconte l'histoire de la prospérité et du déclin de la famille, de ses relations internes et de ses luttes politiques, de son métissage et de sa renaissance au cours d'une centaine d'années.
La gestion de projet est le processus qui consiste à appliquer des connaissances, des compétences, des outils et des méthodologies spécialisés aux activités du projet afin que celui-ci puisse atteindre ou dépasser les exigences et les attentes fixées dans le cadre de ressources limitées. Ce diagramme fournit une vue d'ensemble des 8 composantes du processus de gestion de projet et peut être utilisé comme modèle générique.
Cent ans de solitude est le chef-d'œuvre de Gabriel Garcia Marquez. La lecture de ce livre commence par l'analyse des relations entre les personnages, qui se concentre sur la famille Buendía et raconte l'histoire de la prospérité et du déclin de la famille, de ses relations internes et de ses luttes politiques, de son métissage et de sa renaissance au cours d'une centaine d'années.
Cent ans de solitude est le chef-d'œuvre de Gabriel Garcia Marquez. La lecture de ce livre commence par l'analyse des relations entre les personnages, qui se concentre sur la famille Buendía et raconte l'histoire de la prospérité et du déclin de la famille, de ses relations internes et de ses luttes politiques, de son métissage et de sa renaissance au cours d'une centaine d'années.
La gestion de projet est le processus qui consiste à appliquer des connaissances, des compétences, des outils et des méthodologies spécialisés aux activités du projet afin que celui-ci puisse atteindre ou dépasser les exigences et les attentes fixées dans le cadre de ressources limitées. Ce diagramme fournit une vue d'ensemble des 8 composantes du processus de gestion de projet et peut être utilisé comme modèle générique.
Top 10 des algorithmes en intelligence artificielle
1. Régression linéaire
définition
La technique la plus couramment utilisée pour cet algorithme est la méthode des moindres carrés. Cette méthode calcule une ligne de meilleur ajustement qui minimise la distance perpendiculaire à partir de chaque point de données sur la ligne. La distance totale est la somme des carrés des distances verticales (ligne verte) de tous les points de données. L'idée est d'ajuster le modèle en minimisant cette erreur quadratique ou cette distance.
Par exemple, une régression linéaire simple, qui comporte une variable indépendante (axe des x) et une variable dépendante (axe des y)
Applications courantes
Par exemple, prédisez la croissance des prix de l'immobilier l'année prochaine, les ventes de nouveaux produits au prochain trimestre, etc. Cela ne semble pas difficile, mais la difficulté de l'algorithme de régression linéaire n'est pas d'obtenir la valeur prédite, mais d'être plus précis. Pour ce nombre peut-être très restreint, combien d’ingénieurs y ont consacré leur jeunesse et leurs cheveux.
2. Régression logistique
définition
La régression logistique est similaire à la régression linéaire, mais le résultat de la régression logistique ne peut avoir que deux valeurs. Si la régression linéaire prédit une valeur ouverte, la régression logistique s'apparente davantage à une question par oui ou par non.
La valeur Y dans la fonction logistique va de 0 à 1 et est une valeur de probabilité. Les fonctions logistiques présentent généralement une courbe en forme de S qui divise le graphique en deux régions, ce qui les rend adaptées aux tâches de classification.
Par exemple, le graphique de régression logistique ci-dessus montre la relation entre la probabilité de réussite de l'examen et la durée des études, et peut être utilisé pour prédire si vous pouvez réussir l'examen.
Applications courantes
La régression logistique est souvent utilisée par les plateformes de commerce électronique ou de plats à emporter pour prédire les préférences d'achat des utilisateurs pour des catégories.
3. Arbre de décision
définition
Ce qui précède est une illustration d’un arbre de décision dans lequel chaque cercle ramifié est appelé un nœud.
À chaque nœud, nous posons des questions sur les données en fonction des fonctionnalités disponibles. Les branches gauche et droite représentent des réponses possibles. Le nœud final (c'est-à-dire le nœud feuille) correspond à une valeur prédite.
L'importance de chaque fonctionnalité est déterminée selon une approche descendante. Plus le nœud est haut, plus ses propriétés sont importantes. Par exemple, l'enseignant dans l'exemple ci-dessus estime que l'assiduité est plus importante que les devoirs, donc le nœud d'assiduité est plus élevé, et bien sûr le nœud de score est plus élevé.
Si la régression linéaire et logistique terminent toutes deux la tâche en un seul tour, alors les arbres de décision (arbres de décision) sont une action en plusieurs étapes. Ils sont également utilisés dans les tâches de régression et de classification, mais les scénarios sont généralement plus complexes et spécifiques.
Applications courantes
Pour donner un exemple simple, lorsqu’un enseignant fait face à des élèves dans une classe, qui sont les bons élèves ? Il semble trop grossier de simplement juger qu’un étudiant ayant une note de 90 à l’examen est considéré comme un bon élève et ne peut pas se baser uniquement sur ses notes. Pour les étudiants dont les scores sont inférieurs à 90 points, nous pouvons en discuter séparément des aspects tels que les devoirs, l'assiduité et les questions.
4. Bayes naïfs
définition
Naive Bayes est basé sur le théorème de Bayes, qui est la relation entre deux conditions. Il mesure la probabilité de chaque classe, la probabilité conditionnelle de chaque classe étant donné la valeur de x. Cet algorithme est utilisé dans les problèmes de classification et donne un résultat binaire oui/non. Jetez un œil à l’équation ci-dessous.
Applications courantes
Le classificateur Naive Bayes est une technique statistique populaire avec une application classique en filtrage anti-spam
Expliquer le théorème de Bayes en non-terminologie consiste à utiliser la probabilité que B se produise dans la condition A pour obtenir la probabilité que A se produise dans la condition B. Par exemple, si un chaton vous aime, il y a 1 % de chances qu’il tourne le ventre devant vous. Quelle est la probabilité que le chaton vous aime s’il tourne le ventre devant vous ? Bien sûr, poser cette question revient à gratter la surface, nous devons donc également introduire d'autres données. Par exemple, si le chaton vous aime bien, il y a b% de chances de rester collé à vous et c% de chances de ronronner. Alors, comment connaître la probabilité qu’un chaton nous aime ? Grâce au théorème de Bayes, nous pouvons la calculer à partir de la probabilité que son ventre se retourne, se colle et ronronne.
5. Machine vectorielle de support
définition
Support Vector Machine (SVM) est un algorithme supervisé pour les problèmes de classification. Une machine à vecteurs de support tente de tracer deux lignes entre les points de données avec la plus grande marge entre eux. Pour ce faire, nous traçons les éléments de données sous forme de points dans un espace à n dimensions, où n est le nombre d'entités en entrée. Sur cette base, la machine à vecteurs de support trouve une limite optimale, appelée hyperplan, qui sépare au mieux les sorties possibles par étiquettes de classe. La distance entre l’hyperplan et le point de classe le plus proche est appelée marge. L'hyperplan optimal possède la plus grande marge qui classe les points de telle sorte que la distance entre le point de données le plus proche et les deux classes soit maximisée.
Applications courantes
Par conséquent, le problème que les machines vectorielles de support veulent résoudre est de savoir comment séparer un ensemble de données. Ses principaux scénarios d'application incluent la reconnaissance de caractères, la reconnaissance faciale, la classification de texte et d'autres reconnaissances.
6.K-Algorithme du voisin le plus proche (KNN)
définition
L’algorithme K-Nearest Neighbours (KNN) est très simple. KNN classe les objets en recherchant dans l'ensemble de l'apprentissage les K instances les plus similaires, ou K voisins, et en attribuant une variable de sortie commune à toutes ces K instances.
Le choix de K est critique : des valeurs plus petites peuvent donner beaucoup de bruit et des résultats inexacts, tandis que des valeurs plus grandes sont irréalisables. Il est le plus souvent utilisé pour la classification, mais convient également aux problèmes de régression.
La distance utilisée pour évaluer la similarité entre les instances peut être la distance euclidienne, la distance de Manhattan ou la distance de Minkowski. La distance euclidienne est la distance ordinaire en ligne droite entre deux points. Il s'agit en fait de la racine carrée de la somme des carrés de la différence des coordonnées des points
Applications courantes
La théorie KNN est simple et facile à mettre en œuvre et peut être utilisée pour la classification de texte, la reconnaissance de formes, l'analyse de clusters, etc.
7.K-moyenne
définition
K-means regroupe l'ensemble de données en les classant. Par exemple, cet algorithme peut être utilisé pour regrouper les utilisateurs en fonction de l'historique des achats. Il trouve K clusters dans l’ensemble de données. K-means est utilisé pour l'apprentissage non supervisé, nous n'avons donc besoin d'utiliser que les données d'entraînement X et le nombre de clusters que nous voulons identifier K.
L'algorithme attribue de manière itérative chaque point de données à l'un des K groupes en fonction de ses caractéristiques. Il sélectionne K points pour chaque K-cluster (appelés centroïdes). En fonction de la similarité, de nouveaux points de données sont ajoutés au cluster ayant le centroïde le plus proche. Ce processus se poursuit jusqu'à ce que le centre de masse cesse de changer.
Applications courantes
Dans la vie, K-means joue un rôle important dans la détection des fraudes et est largement utilisé dans les domaines de la détection des fraudes automobiles, de l'assurance médicale et de l'assurance.
8. Forêt aléatoire
définition
Random Forest est un algorithme d’apprentissage automatique d’ensemble très populaire. L’idée de base de cet algorithme est que les opinions de nombreuses personnes sont plus précises que celles d’un seul individu. Dans une forêt aléatoire, nous utilisons un ensemble d'arbres de décision (voir Arbres de décision).
(a) Au cours du processus de formation, chaque arbre de décision est construit sur la base d'échantillons bootstrap de l'ensemble de formation.
(b) Lors de la classification, les décisions sur les instances de saisie sont prises sur la base d'un vote majoritaire.
Applications courantes
Random Forest a un large éventail de perspectives d'application, du marketing à l'assurance maladie. Elle peut être utilisée pour modéliser des simulations de marketing, compter les sources de clients, la rétention et la perte, et peut également être utilisée pour prédire les risques de maladie et la susceptibilité des patients.
9. Réduction de la dimensionnalité
Les problèmes d’apprentissage automatique sont devenus plus complexes en raison du volume considérable de données que nous sommes capables de capturer aujourd’hui. Cela signifie que la formation est extrêmement lente et qu’il est difficile de trouver une bonne solution. Ce problème est souvent appelé la « malédiction de la dimensionnalité ».
La réduction de dimensionnalité tente de résoudre ce problème en combinant des fonctionnalités spécifiques en fonctionnalités de niveau supérieur sans perdre les informations les plus importantes. L'analyse en composantes principales (ACP) est la technique de réduction de dimensionnalité la plus populaire.
L'analyse en composantes principales réduit la dimensionnalité d'un ensemble de données en le compressant en lignes de faible dimension ou en hyperplans/sous-espaces. Cela préserve autant que possible les caractéristiques principales des données originales.
Un exemple de réduction de dimensionnalité peut être obtenu en rapprochant tous les points de données d'une ligne droite.
10.Réseau de neurones artificiels (ANN)
définition
Les réseaux de neurones artificiels (ANN) peuvent gérer des tâches d’apprentissage automatique volumineuses et complexes. Un réseau neuronal est essentiellement un ensemble de couches interconnectées composées de bords et de nœuds pondérés, appelés neurones. Entre la couche d'entrée et la couche de sortie, nous pouvons insérer plusieurs couches cachées. Les réseaux de neurones artificiels utilisent deux couches cachées. Au-delà de cela, il faut s’attaquer au deep learning.
Les réseaux de neurones artificiels fonctionnent de manière similaire à la structure du cerveau. Un groupe de neurones reçoit un poids aléatoire pour déterminer comment le neurone traite les données d'entrée. La relation entre l'entrée et la sortie est apprise en entraînant un réseau neuronal sur les données d'entrée. Pendant la phase de formation, le système a accès aux bonnes réponses.
Si le réseau ne reconnaît pas avec précision l'entrée, le système ajuste les pondérations. Après un entraînement suffisant, il reconnaîtra systématiquement les modèles corrects.
Chaque nœud circulaire représente un neurone artificiel et les flèches représentent les connexions entre la sortie d'un neurone artificiel et l'entrée d'un autre.
Applications courantes
La reconnaissance d'images est une application bien connue des réseaux de neurones.