Elon Musk AI Text Generator con LSTM e Tensorflow 2

Contenuti

introduzione

Elon Musk è diventato una sensazione su Internet negli ultimi anni, con le loro opinioni sul futuro, la sua personalità divertente e la passione per la tecnologia. Ormai lo conoscono tutti, O come quel tipo di macchina elettrica o come quel tizio che costruisce lanciafiamme. È per lo più attivo sul suo Twitter, dove condividi tutto, anche meme!

1icw_glmzjyfk_g4qb39bzq-2217409

Ispira molti giovani nel settore IT, e volevo fare un piccolo progetto divertente, dove creeresti un'intelligenza artificiale che genererebbe testo in base ai tuoi post precedenti su Twitter. Volevo riassumere il suo stile e vedere che tipo di strani risultati avrebbe ottenuto.

Preparazione

I dati che sto usando sono stati presi direttamente dal twitter di Elon Musk, sia dai tuoi post che dalle tue risposte. Puoi scaricare il set di dati in questo Collegamento.

Importazione delle librerie:

Ora creerò la funzione che rimuoverà tutti i collegamenti, gli hashtag, le etichette e tutte le cose che confonderanno il modello in modo che ci rimanga un testo pulito.

Definiamo un tokenizer e applichiamolo al testo. Ecco come stiamo mappando tutte le parole nelle loro rappresentazioni numeriche. Lo facciamo perché le reti neurali non possono accettare stringhe. Se sei nuovo ad esso, c'è una grande serie su Youtube di Lawrence Moroney, che ti consiglio di controllare qui sotto:

Ora dovremo definire max_length (tutti i dati devono essere riempiti a una lunghezza fissa, come con Convolutions), e abbiamo anche bisogno di convertire input_sequences in array numpy.

Creeremo sequenze di dati, dove useremo tutti gli elementi tranne l'ultimo come nostra X, e l'ultimo elemento come y, dei nostri dati. Cosa c'è di più, il nostro ed è una rappresentazione unica di total_words, che a volte può essere una grande quantità di dati (se total_words è 5952, ciò significa che ognuno e ha la forma (5952,))

Modello

Di seguito la configurazione del nostro modello.

Ho provato un paio di ottimizzatori e ho scoperto che Adam funziona meglio per questo esempio. Costruiamo ed eseguiamo il modello:

Creiamo un 'for loop', che genererà un nuovo testo, in base a seed_text e al numero di parole che definiremo. Questa parte del codice può sembrare un po' intimidatoria, ma una volta che hai letto attentamente ogni riga, vedrai che abbiamo già fatto qualcosa di simile prima.

Ora è il momento di giocare con il nostro modello. Oh!


Riepilogo

Lo spazio è un'ottima combinazione di gatti !? Chi lo avrebbe saputo! Come potete vedere, i risultati che dà il modello sono sciocchi e non hanno molto senso. Al igual que con todos los modelos de apprendimento profondo, ci sono molte cose che potrebbero essere modificate per generare risultati migliori. lo lascio a te.

Iscriviti alla nostra Newsletter

Non ti invieremo posta SPAM. Lo odiamo quanto te.