.
Il seme è piantato!
Cominciamo dall'inizio, quando è venuta l'idea. Potresti pensare che la tecnica del Deep Learning sia recentemente fiorita, quindi sarebbero iniziati alcuni 20-30 anni, ma lascia che ti dica che tutto è iniziato un po' 78 anni. sì, hai letto bene, la historia del apprendimento profondoApprendimento profondo, Una sottodisciplina dell'intelligenza artificiale, si affida a reti neurali artificiali per analizzare ed elaborare grandi volumi di dati. Questa tecnica consente alle macchine di apprendere modelli ed eseguire compiti complessi, come il riconoscimento vocale e la visione artificiale. La sua capacità di migliorare continuamente man mano che vengono forniti più dati lo rende uno strumento chiave in vari settori, dalla salute... a menudo se remonta a 1943 quando Walter Pitts e Warren McCulloch ha creato un modello al computer che supportava le reti neurali del cervello umano. Hanno usato una combinazione di algoritmi e aritmetica che hanno chiamato “logica di soglia” imitare la procedura del pensiero.
Da allora, Il Deep Learning si è evoluto costantemente, con solo due interruzioni significative nel suo sviluppo. Entrambi erano legati ai famigerati inverni dell'intelligenza artificiale.
La germinazione dei semi è visibile!
Durante la guerra fredda, quando gli scienziati americani stavano cercando di tradurre dal russo all'inglese e alcuni dei più grandi matematici come Alan Turing (spesso conosciuto come il padre dell'informatica moderna) chi ha creato il test di Turing per testare l'intelligenza di una macchina. Frank Rosenblatt, un matematico ha inventato il primo modello basato su reti neurali chiamato Perceptron nell'anno 1958. Esto es equivalente al modelo de aprendizaje automático Regresión logística con una función de pérdidaLa función de pérdida es una herramienta fundamental en el aprendizaje automático que cuantifica la discrepancia entre las predicciones del modelo y los valores reales. Su objetivo es guiar el proceso de entrenamiento al minimizar esta diferencia, permitiendo así que el modelo aprenda de manera más efectiva. Existen diferentes tipos de funciones de pérdida, como el error cuadrático medio y la entropía cruzada, cada una adecuada para distintas tareas y... ligeramente distinto.
Ispirazione: neurone biologico
È chiaro dalla storia che siamo sempre ispirati dalla natura e questo caso non è diverso. Questo è molto ispirato dalla natura e dalla biologia del nostro cervello. Al momento, avevano una conoscenza di base del funzionamento dei neuroni nel nostro cervello. Lascia che ti presenti prima il neurone biologico.
Se tocchiamo il livello superficiale di un neurone biologico, allora è principalmente composto da 3 parti, nucleo, dendriti e assoni. I segni / Gli impulsi elettrici vengono ricevuti da questi dendriti collegati al nucleo dove il nucleo stesso esegue alcune elaborazioni e infine invia un messaggio sotto forma di segnale elettrico al resto dei neuroni collegati tramite assoni. Questa è la spiegazione più semplice del funzionamento di un neurone biologico, le persone che studiano biologia sarebbero consapevoli di quanto sia enormemente complessa la sua struttura e di come funziona esattamente.
Quindi, quei matematici e scienziati hanno trovato un modo per rappresentare matematicamente questo neurone biologico dove ci sono n input per un corpo e ognuno ha dei pesi, poiché tutti gli input potrebbero non essere ugualmente importanti nella produzione dell'output. Questo output non è altro che applicare una funzione dopo aver preso la somma dei prodotti di questi input e dei loro rispettivi pesi. Poiché questa idea del perceptron è lontana dalla complessa realtà di un neurone biologico, possiamo dire che è vagamente ispirato alla biologia.
È un alberello adesso!
Ora è arrivata l'era in cui la gente si chiedeva perché non potevamo creare una rete di neuroni connessi che fosse ancora una volta ispirata dal cervello biologico di creature viventi come gli umani., scimmie, formiche, eccetera., che hanno semplicemente una struttura di neuroni interconnessi. Molti tentativi sono stati fatti dal decennio di 1960, ma questo ha avuto successo in un post fondamentale su 1986 da un gruppo di matematici, uno dei quali era Geoffrey Hinton (ha contributi fenomenali nel campo dell'apprendimento automatico e dell'AI).
Poi hanno avuto l'idea di retropropagazione algoritmo. Brevemente, possiamo ricordare questo algoritmo come una regola di differenziazione a catena. Esto no solo hizo factible el addestramentoLa formazione è un processo sistematico volto a migliorare le competenze, conoscenze o abilità fisiche. Viene applicato in vari ambiti, come lo sport, Formazione e sviluppo professionale. Un programma di allenamento efficace include la pianificazione degli obiettivi, Pratica regolare e valutazione dei progressi. L'adattamento alle esigenze individuali e la motivazione sono fattori chiave per ottenere risultati di successo e sostenibili in qualsiasi disciplina.... de la Red Neural Artificial, ma ha anche creato un clamore dell'IA dove la gente ne parlava tutto il giorno e pensava che nel prossimo 10 anni sarebbe possibile per una macchina pensare come un essere umano.
Anche se ha creato tanto scalpore, sbiadito nel decennio di 1990 e questo periodo divenne noto come il AI Inverno perché la gente lo ha promosso molto, ma l'effetto reale era marginale al momento. Quale pensi possa essere la ragione? Prima di svelare il motivo di questo, Vorrei che tu gli dessi una possibilità.
Pensare…
Pensare…
Bene, qui hai.
Muffa polverosa sul pavimento!
Anche se i matematici hanno inventato questo bellissimo algoritmo di backpropagation, Dovuto al mancanza di potenza di calcolo nel decennio di 1990 e il mancanza di dati, questa esagerazione per finire è morta dopo che il Dipartimento della Difesa degli Stati Uniti. UU. ha smesso di finanziare l'IA vedendo l'impatto marginale nel corso degli anni dopo essere stato così pubblicizzato. Quindi, algoritmi di apprendimento automatico come SVM, Random Forest e GBDT si sono evoluti e sono diventati estremamente popolari con 1995 e 2009.
Albero maturo con fiori!
Anche se sono passati tutti ad algoritmi come SVM e tutto il resto, Geoffrey Hinton credeva ancora che la vera intelligenza sarebbe stata raggiunta solo attraverso le reti neurali. Quindi per quasi 20 anni, In altre parole, a partire dal 1986 un 2006, lavorato su reti neurali. e in 2006 se le ocurrió un trabajo fenomenal sobre el entrenamiento de una neuronale rossoLe reti neurali sono modelli computazionali ispirati al funzionamento del cervello umano. Usano strutture note come neuroni artificiali per elaborare e apprendere dai dati. Queste reti sono fondamentali nel campo dell'intelligenza artificiale, consentendo progressi significativi in attività come il riconoscimento delle immagini, Elaborazione del linguaggio naturale e previsione delle serie temporali, tra gli altri. La loro capacità di apprendere schemi complessi li rende strumenti potenti.. profunda. Questo è l'inizio dell'era conosciuta come Apprendimento profondo. Questo post di Geoffrey Hinton non ha ottenuto molta popolarità fino a quando 2012.
Ti starai chiedendo cosa ha reso le reti neurali profonde estremamente popolari in 2012. Quindi, Su 2012, Stanford ha organizzato una competizione chiamata ImageNet, uno dei problemi più difficili all'epoca consisteva in milioni di immagini e il compito era identificare gli oggetti dall'immagine data. Vorrei che lo ricordassi in 2012, le persone avevano un'enorme quantità di dati, e allo stesso tempo, il calcolo era molto potente rispetto a quanto era presente nel decennio di 1980. La rete neurale profonda o Deep Learning del resto ha superato tutti gli algoritmi di apprendimento automatico in questa competizione.
Questo era il momento in cui i grandi giganti della tecnologia come Google, Microsoft, Facebook e altri hanno iniziato a vedere il potenziale del deep learning e hanno iniziato a investire molto in questa tecnologia..
Albero maturo con frutti!
Oggi, se parlo di casi d'uso di Deep Learning, è fattibile è importante che tu sappia che alcuni dei popolari assistenti vocali come Google Assistant, Siri, Alexa funziona con il deep learning. Allo stesso tempo, Le auto a guida autonoma di Tesla sono rese possibili dai progressi nel deep learning. A parte questo, ha le sue applicazioni anche nel settore sanitario. Credo fermamente che ci sia ancora molto potenziale nel Deep Learning che sperimenteremo nei prossimi anni..
Questi sono alcuni dei miei profili social che potresti voler visitare:
LinkedIn: https://bit.ly/3ltBarT
Github: https://bit.ly/3rQAYoH
Metà: https://bit.ly/3a66Jn1
Il supporto mostrato in questo post non è di proprietà di DataPeaker e viene utilizzato a discrezione dell'autore.