Galleria mappe mentale I 10 migliori algoritmi dell'intelligenza artificiale
Per molte persone, l’intelligenza artificiale è ancora una tecnologia relativamente “avanzata”, ma non importa quanto avanzata sia la tecnologia, parte da principi di base. Esistono 10 algoritmi principali che circolano nel campo dell'intelligenza artificiale. I loro principi sono semplici e sono stati scoperti e applicati molto presto. Potresti averli imparati anche alle scuole medie e sono molto comuni nella vita. Questo articolo ti guida attraverso questi 10 algoritmi in parole povere
Modificato alle 2023-05-29 19:40:10Questa è una mappa mentale su una breve storia del tempo. "Una breve storia del tempo" è un'opera scientifica popolare con un'influenza di vasta portata. Non solo introduce i concetti di base della cosmologia e della relatività, ma discute anche dei buchi neri e dell'espansione dell'universo. questioni scientifiche all’avanguardia come l’inflazione e la teoria delle stringhe.
Dopo aver letto "Il coraggio di essere antipatico", "Il coraggio di essere antipatico" è un libro filosofico che vale la pena leggere. Può aiutare le persone a comprendere meglio se stesse, a comprendere gli altri e a trovare modi per ottenere la vera felicità.
"Il coraggio di essere antipatico" non solo analizza le cause profonde di vari problemi nella vita, ma fornisce anche contromisure corrispondenti per aiutare i lettori a comprendere meglio se stessi e le relazioni interpersonali e come applicare la teoria psicologica di Adler nella vita quotidiana.
Questa è una mappa mentale su una breve storia del tempo. "Una breve storia del tempo" è un'opera scientifica popolare con un'influenza di vasta portata. Non solo introduce i concetti di base della cosmologia e della relatività, ma discute anche dei buchi neri e dell'espansione dell'universo. questioni scientifiche all’avanguardia come l’inflazione e la teoria delle stringhe.
Dopo aver letto "Il coraggio di essere antipatico", "Il coraggio di essere antipatico" è un libro filosofico che vale la pena leggere. Può aiutare le persone a comprendere meglio se stesse, a comprendere gli altri e a trovare modi per ottenere la vera felicità.
"Il coraggio di essere antipatico" non solo analizza le cause profonde di vari problemi nella vita, ma fornisce anche contromisure corrispondenti per aiutare i lettori a comprendere meglio se stessi e le relazioni interpersonali e come applicare la teoria psicologica di Adler nella vita quotidiana.
I 10 migliori algoritmi dell'intelligenza artificiale
1. Regressione lineare
definizione
(Regressione lineare) è probabilmente l'algoritmo di machine learning più popolare. La regressione lineare consiste nel trovare una linea retta e adattarla il più fedelmente possibile ai punti dati nel grafico a dispersione. Tenta di rappresentare le variabili indipendenti (valori x) e i risultati numerici (valori y) adattando un'equazione lineare a questi dati. Questa linea può quindi essere utilizzata per prevedere i valori futuri!
La tecnica più comunemente utilizzata per questo algoritmo è il metodo dei minimi quadrati. Questo metodo calcola una linea di adattamento ottimale che riduce al minimo la distanza perpendicolare da ciascun punto dati sulla linea. La distanza totale è la somma dei quadrati delle distanze verticali (linea verde) di tutti i punti dati. L'idea è di adattare il modello riducendo al minimo l'errore quadrato o la distanza.
Ad esempio, la regressione lineare semplice, che ha una variabile indipendente (asse x) e una variabile dipendente (asse y)
Applicazioni comuni
Ad esempio, puoi prevedere la crescita dei prezzi immobiliari del prossimo anno, le vendite di nuovi prodotti nel prossimo trimestre, ecc. Non sembra difficile, ma la difficoltà dell'algoritmo di regressione lineare non è ottenere il valore previsto, ma essere più accurato. Per quel numero forse molto piccolo, quanti ingegneri ci hanno dedicato la loro giovinezza e i loro capelli.
2. Regressione logistica
definizione
La regressione logistica è simile alla regressione lineare, ma il risultato della regressione logistica può avere solo due valori. Se la regressione lineare prevede un valore aperto, la regressione logistica è più simile a una domanda sì o no.
Il valore Y nella funzione logistica varia da 0 a 1 ed è un valore di probabilità. Le funzioni logistiche solitamente hanno una curva a forma di S che divide il grafico in due regioni, rendendole adatte per compiti di classificazione.
Ad esempio, il grafico di regressione logistica qui sopra mostra la relazione tra la probabilità di superare l'esame e il tempo di studio e può essere utilizzato per prevedere se riuscirai a superare l'esame.
Applicazioni comuni
La regressione logistica viene spesso utilizzata dalle piattaforme di e-commerce o da asporto per prevedere le preferenze di acquisto degli utenti per le categorie.
3. Albero decisionale
definizione
Quanto sopra è un'illustrazione di un albero decisionale, in cui ogni cerchio ramificato è chiamato nodo.
Ad ogni nodo poniamo domande sui dati in base alle funzionalità disponibili. I rami sinistro e destro rappresentano le possibili risposte. Il nodo finale (cioè il nodo foglia) corrisponde a un valore previsto.
L'importanza di ciascuna caratteristica è determinata attraverso un approccio top-down. Più alto è il nodo, più importanti sono le sue proprietà. Ad esempio, l'insegnante nell'esempio precedente ritiene che la frequenza sia più importante dei compiti a casa, quindi il nodo relativo alla frequenza è più alto e, ovviamente, il nodo relativo ai punteggi è più alto.
Se sia la regressione lineare che quella logistica terminano l'attività in un round, gli alberi decisionali (alberi decisionali) sono un'azione in più fasi. Vengono utilizzati anche nelle attività di regressione e classificazione, ma gli scenari sono generalmente più complessi e specifici.
Applicazioni comuni
Per fare un semplice esempio, quando un insegnante affronta gli studenti in una classe, chi sono i bravi studenti? Sembra troppo rozzo giudicare semplicemente che uno studente con un punteggio di 90 all'esame sia considerato un bravo studente e non può basarsi solo sui punteggi. Per gli studenti i cui punteggi sono inferiori a 90 punti, possiamo discuterli separatamente da aspetti come compiti, frequenza e domande.
4. L'ingenuo Bayes
definizione
Naive Bayes si basa sul teorema di Bayes, che è la relazione tra due condizioni. Misura la probabilità di ciascuna classe, la probabilità condizionata di ciascuna classe dato il valore di x. Questo algoritmo viene utilizzato nei problemi di classificazione e produce un risultato binario sì/no. Dai un'occhiata all'equazione qui sotto.
Applicazioni comuni
Il classificatore Naive Bayes è una tecnica statistica popolare con un'applicazione classica nel filtraggio dello spam
Spiegare il teorema di Bayes in modo non terminologico significa usare la probabilità che B si verifichi nella condizione A per trovare la probabilità che A si verifichi nella condizione B. Ad esempio, se piaci a un gattino, c'è una percentuale di probabilità che giri la pancia davanti a te. Qual è la probabilità che piaci al gattino se gira la pancia davanti a te? Naturalmente, fare questa domanda equivale a scalfire la superficie, quindi dobbiamo introdurre anche altri dati. Ad esempio, se piaci al gattino, c'è una probabilità del b% di attaccarsi a te e una probabilità del c% di fare le fusa. Allora come facciamo a sapere la probabilità che piacciamo a un gattino? Attraverso il teorema di Bayes, possiamo calcolarla dalla probabilità che si giri la pancia, si attacchi e faccia le fusa.
5. Supporta la macchina vettoriale
definizione
Support Vector Machine (SVM) è un algoritmo supervisionato per problemi di classificazione. Una macchina vettoriale di supporto tenta di tracciare due linee tra i punti dati con il margine più ampio tra di loro. Per fare ciò, tracciamo gli elementi di dati come punti nello spazio n-dimensionale, dove n è il numero di caratteristiche di input. Su questa base, la macchina vettoriale di supporto trova un confine ottimale, chiamato iperpiano, che separa al meglio i possibili output in base alle etichette di classe. La distanza tra l'iperpiano e il punto di classe più vicino è chiamata margine. L'iperpiano ottimale ha il margine più ampio che classifica i punti in modo tale che la distanza tra il punto dati più vicino e le due classi sia massimizzata.
Applicazioni comuni
Pertanto, il problema che le macchine vettoriali di supporto vogliono risolvere è come separare un insieme di dati. I suoi principali scenari applicativi includono il riconoscimento dei caratteri, il riconoscimento facciale, la classificazione del testo e altri riconoscimenti.
6.K-Algoritmo del vicino più vicino (KNN)
definizione
L'algoritmo K-Nearest Neighbours (KNN) è molto semplice. KNN classifica gli oggetti cercando nell'intero set di addestramento le K istanze più simili, o K vicine, e assegnando una variabile di output comune a tutte queste K istanze.
La scelta di K è fondamentale: valori più piccoli possono dare molto rumore e risultati imprecisi, mentre valori più grandi sono irrealizzabili. È comunemente utilizzato per la classificazione, ma è adatto anche per problemi di regressione.
La distanza utilizzata per valutare la somiglianza tra le istanze può essere la distanza euclidea, la distanza di Manhattan o la distanza di Minkowski. La distanza euclidea è la distanza ordinaria in linea retta tra due punti. In realtà è la radice quadrata della somma dei quadrati della differenza nelle coordinate dei punti
Applicazioni comuni
La teoria KNN è semplice e facile da implementare e può essere utilizzata per la classificazione del testo, il riconoscimento di modelli, l'analisi dei cluster, ecc.
7.K-significa
definizione
K-significa raggruppare il set di dati classificandolo. Ad esempio, questo algoritmo può essere utilizzato per raggruppare gli utenti in base alla cronologia degli acquisti. Trova K cluster nel set di dati. Le medie K vengono utilizzate per l'apprendimento non supervisionato, quindi dobbiamo utilizzare solo i dati di addestramento X e il numero di cluster che vogliamo identificare K.
L'algoritmo assegna iterativamente ciascun punto dati a uno dei K gruppi in base alle sue caratteristiche. Seleziona K punti per ciascun K-cluster (chiamati centroidi). In base alla somiglianza, i nuovi punti dati vengono aggiunti al cluster con il baricentro più vicino. Questo processo continua finché il centro di massa non smette di cambiare.
Applicazioni comuni
Nella vita, le medie K svolgono un ruolo importante nel rilevamento delle frodi ed è ampiamente utilizzato nei settori automobilistico, assicurativo medico e nel rilevamento delle frodi assicurative.
8. Foresta casuale
definizione
Random Forest è un algoritmo di machine learning d'insieme molto popolare. L’idea di base di questo algoritmo è che le opinioni di molte persone sono più accurate delle opinioni di un individuo. In una foresta casuale utilizziamo un insieme di alberi decisionali (vedi Alberi decisionali).
(a) Durante il processo di addestramento, ciascun albero decisionale viene costruito sulla base di campioni bootstrap del set di addestramento.
(b) Durante la classificazione, le decisioni sulle istanze di input vengono prese in base al voto a maggioranza.
Applicazioni comuni
Random Forest ha un'ampia gamma di prospettive applicative, dal marketing all'assicurazione sanitaria. Può essere utilizzata per modellare simulazioni di marketing, contare le fonti dei clienti, la fidelizzazione e le perdite e può anche essere utilizzata per prevedere i rischi di malattie e la suscettibilità dei pazienti.
9. Riduzione della dimensionalità
I problemi di machine learning sono diventati più complessi a causa dell’enorme volume di dati che siamo in grado di acquisire oggi. Ciò significa che la formazione è estremamente lenta e trovare una buona soluzione è difficile. Questo problema è spesso chiamato la "maledizione della dimensionalità".
La riduzione della dimensionalità tenta di risolvere questo problema combinando caratteristiche specifiche in caratteristiche di livello superiore senza perdere le informazioni più importanti. L'analisi delle componenti principali (PCA) è la tecnica di riduzione della dimensionalità più popolare.
L'analisi delle componenti principali riduce la dimensionalità di un set di dati comprimendolo in linee a bassa dimensionalità o iperpiani/sottospazi. Ciò preserva il più possibile le caratteristiche salienti dei dati originali.
Un esempio di riduzione della dimensionalità può essere ottenuto approssimando tutti i punti dati su una linea retta.
10.Rete neurale artificiale (ANN)
definizione
Le reti neurali artificiali (ANN) possono gestire attività di apprendimento automatico grandi e complesse. Una rete neurale è essenzialmente un insieme di strati interconnessi composti da bordi e nodi pesati, chiamati neuroni. Tra il livello di input e quello di output, possiamo inserire più livelli nascosti. Le reti neurali artificiali utilizzano due livelli nascosti. Oltre a ciò, è necessario affrontare il problema del deep learning.
Le reti neurali artificiali funzionano in modo simile alla struttura del cervello. A un gruppo di neuroni viene assegnato un peso casuale per determinare come il neurone elabora i dati di input. La relazione tra input e output viene appresa addestrando una rete neurale sui dati di input. Durante la fase di formazione, il sistema ha accesso alle risposte corrette.
Se la rete non riconosce accuratamente l'input, il sistema regola i pesi. Dopo un addestramento sufficiente, riconoscerà costantemente i modelli corretti.
Ogni nodo circolare rappresenta un neurone artificiale e le frecce rappresentano le connessioni dall'output di un neurone artificiale all'input di un altro.
Applicazioni comuni
Il riconoscimento delle immagini è un'applicazione ben nota delle reti neurali.