LA STORIA DELLE RETI NEURALI!

Contenuti

.

Il seme è piantato!

Cominciamo dall'inizio, quando è venuta l'idea. Potresti pensare che la tecnica del Deep Learning sia recentemente fiorita, quindi sarebbero iniziati alcuni 20-30 anni, ma lascia che ti dica che tutto è iniziato un po' 78 anni. sì, hai letto bene, la historia del apprendimento profondo a menudo se remonta a 1943 quando Walter Pitts e Warren McCulloch ha creato un modello al computer che supportava le reti neurali del cervello umano. Hanno usato una combinazione di algoritmi e aritmetica che hanno chiamato “logica di soglia” imitare la procedura del pensiero.

Da allora, Il Deep Learning si è evoluto costantemente, con solo due interruzioni significative nel suo sviluppo. Entrambi erano legati ai famigerati inverni dell'intelligenza artificiale.

La germinazione dei semi è visibile!

Durante la guerra fredda, quando gli scienziati americani stavano cercando di tradurre dal russo all'inglese e alcuni dei più grandi matematici come Alan Turing (spesso conosciuto come il padre dell'informatica moderna) chi ha creato il test di Turing per testare l'intelligenza di una macchina. Frank Rosenblatt, un matematico ha inventato il primo modello basato su reti neurali chiamato Perceptron nell'anno 1958. Esto es equivalente al modelo de aprendizaje automático Regresión logística con una función de pérdida ligeramente distinto.

Ispirazione: neurone biologico

È chiaro dalla storia che siamo sempre ispirati dalla natura e questo caso non è diverso. Questo è molto ispirato dalla natura e dalla biologia del nostro cervello. Al momento, avevano una conoscenza di base del funzionamento dei neuroni nel nostro cervello. Lascia che ti presenti prima il neurone biologico.

Se tocchiamo il livello superficiale di un neurone biologico, allora è principalmente composto da 3 parti, nucleo, dendriti e assoni. I segni / Gli impulsi elettrici vengono ricevuti da questi dendriti collegati al nucleo dove il nucleo stesso esegue alcune elaborazioni e infine invia un messaggio sotto forma di segnale elettrico al resto dei neuroni collegati tramite assoni. Questa è la spiegazione più semplice del funzionamento di un neurone biologico, le persone che studiano biologia sarebbero consapevoli di quanto sia enormemente complessa la sua struttura e di come funziona esattamente.

Quindi, quei matematici e scienziati hanno trovato un modo per rappresentare matematicamente questo neurone biologico dove ci sono n input per un corpo e ognuno ha dei pesi, poiché tutti gli input potrebbero non essere ugualmente importanti nella produzione dell'output. Questo output non è altro che applicare una funzione dopo aver preso la somma dei prodotti di questi input e dei loro rispettivi pesi. Poiché questa idea del perceptron è lontana dalla complessa realtà di un neurone biologico, possiamo dire che è vagamente ispirato alla biologia.

È un alberello adesso!

Ora è arrivata l'era in cui la gente si chiedeva perché non potevamo creare una rete di neuroni connessi che fosse ancora una volta ispirata dal cervello biologico di creature viventi come gli umani., scimmie, formiche, eccetera., che hanno semplicemente una struttura di neuroni interconnessi. Molti tentativi sono stati fatti dal decennio di 1960, ma questo ha avuto successo in un post fondamentale su 1986 da un gruppo di matematici, uno dei quali era Geoffrey Hinton (ha contributi fenomenali nel campo dell'apprendimento automatico e dell'AI).

Poi hanno avuto l'idea di retropropagazione algoritmo. Brevemente, possiamo ricordare questo algoritmo come una regola di differenziazione a catena. Esto no solo hizo factible el addestramento de la Red Neural Artificial, ma ha anche creato un clamore dell'IA dove la gente ne parlava tutto il giorno e pensava che nel prossimo 10 anni sarebbe possibile per una macchina pensare come un essere umano.

Anche se ha creato tanto scalpore, sbiadito nel decennio di 1990 e questo periodo divenne noto come il AI Inverno perché la gente lo ha promosso molto, ma l'effetto reale era marginale al momento. Quale pensi possa essere la ragione? Prima di svelare il motivo di questo, Vorrei che tu gli dessi una possibilità.

Pensare…

Pensare…

Bene, qui hai.

Muffa polverosa sul pavimento!

Anche se i matematici hanno inventato questo bellissimo algoritmo di backpropagation, Dovuto al mancanza di potenza di calcolo nel decennio di 1990 e il mancanza di dati, questa esagerazione per finire è morta dopo che il Dipartimento della Difesa degli Stati Uniti. UU. ha smesso di finanziare l'IA vedendo l'impatto marginale nel corso degli anni dopo essere stato così pubblicizzato. Quindi, algoritmi di apprendimento automatico come SVM, Random Forest e GBDT si sono evoluti e sono diventati estremamente popolari con 1995 e 2009.

Albero maturo con fiori!

Anche se sono passati tutti ad algoritmi come SVM e tutto il resto, Geoffrey Hinton credeva ancora che la vera intelligenza sarebbe stata raggiunta solo attraverso le reti neurali. Quindi per quasi 20 anni, In altre parole, a partire dal 1986 un 2006, lavorato su reti neurali. e in 2006 se le ocurrió un trabajo fenomenal sobre el entrenamiento de una neuronale rosso profunda. Questo è l'inizio dell'era conosciuta come Apprendimento profondo. Questo post di Geoffrey Hinton non ha ottenuto molta popolarità fino a quando 2012.

Ti starai chiedendo cosa ha reso le reti neurali profonde estremamente popolari in 2012. Quindi, Su 2012, Stanford ha organizzato una competizione chiamata ImageNet, uno dei problemi più difficili all'epoca consisteva in milioni di immagini e il compito era identificare gli oggetti dall'immagine data. Vorrei che lo ricordassi in 2012, le persone avevano un'enorme quantità di dati, e allo stesso tempo, il calcolo era molto potente rispetto a quanto era presente nel decennio di 1980. La rete neurale profonda o Deep Learning del resto ha superato tutti gli algoritmi di apprendimento automatico in questa competizione.

Questo era il momento in cui i grandi giganti della tecnologia come Google, Microsoft, Facebook e altri hanno iniziato a vedere il potenziale del deep learning e hanno iniziato a investire molto in questa tecnologia..

Albero maturo con frutti!

Oggi, se parlo di casi d'uso di Deep Learning, è fattibile è importante che tu sappia che alcuni dei popolari assistenti vocali come Google Assistant, Siri, Alexa funziona con il deep learning. Allo stesso tempo, Le auto a guida autonoma di Tesla sono rese possibili dai progressi nel deep learning. A parte questo, ha le sue applicazioni anche nel settore sanitario. Credo fermamente che ci sia ancora molto potenziale nel Deep Learning che sperimenteremo nei prossimi anni..

Questi sono alcuni dei miei profili social che potresti voler visitare:

LinkedIn: https://bit.ly/3ltBarT

Github: https://bit.ly/3rQAYoH

Metà: https://bit.ly/3a66Jn1

Il supporto mostrato in questo post non è di proprietà di DataPeaker e viene utilizzato a discrezione dell'autore.

Iscriviti alla nostra Newsletter

Non ti invieremo posta SPAM. Lo odiamo quanto te.