Elon Musk AI Text Generator avec LSTM et Tensorflow 2

Contenu

introduction

Elon Musk est devenu une sensation sur Internet ces dernières années, avec leur vision de l'avenir, sa personnalité amusante et sa passion pour la technologie. Tout le monde le connaît maintenant, Soit comme ce type de voiture électrique, soit comme ce type qui fabrique des lance-flammes. Il est surtout actif sur son Twitter, où tu partages tout, Même les mèmes!

1icw_glmzjyfk_g4qb39bzq-2217409

Il inspire de nombreux jeunes dans l'industrie informatique, et je voulais faire un petit projet amusant, où vous créeriez une IA qui générerait du texte basé sur vos précédents messages sur Twitter. Je voulais résumer son style et voir quel genre de résultats étranges elle obtiendrait.

préparation

Les données que j'utilise proviennent directement du twitter d'Elon Musk, à la fois de vos messages et de vos réponses. Vous pouvez télécharger l'ensemble de données dans ce Relier.

Importation des bibliothèques:

Maintenant, je vais créer la fonction qui supprimera tous les liens, les hashtags, les étiquettes et toutes les choses qui vont embrouiller le modèle afin que nous nous retrouvions avec du texte propre.

Définissons un tokenizer et appliquons-le au texte. C'est ainsi que nous mappons tous les mots dans leurs représentations numériques. Nous le faisons parce que les réseaux de neurones ne peuvent pas accepter les chaînes. Si vous êtes nouveau, il y a une super série sur Youtube de Lawrence Moroney, que je vous propose de vérifier ci-dessous:

Maintenant, nous devrons définir max_length (toutes les données doivent être remplies à une longueur fixe, comme pour les circonvolutions), et nous devons également convertir input_sequences en tableau numpy.

Nous allons créer des séquences de données, où nous utiliserons tous les éléments sauf le dernier comme notre X, et le dernier élément comme y, de nos données. En outre, le nôtre et est une représentation unique de total_words, qui peut parfois être une grande quantité de données (si total_words est 5952, cela signifie que chacun et a la forme (5952,))

Modèle

Ci-dessous la configuration de notre modèle.

J'ai essayé quelques optimiseurs et j'ai trouvé qu'Adam fonctionne mieux pour cet exemple. Construisons et exécutons le modèle:

Créons une "boucle for", qui va générer un nouveau texte, basé sur seed_text et le nombre de mots que nous allons définir. Cette partie du code peut sembler un peu intimidante, mais une fois que vous avez lu attentivement chaque ligne, vous verrez que nous avons déjà fait quelque chose de similaire avant.

C'est le moment de jouer avec notre modèle. Wow!


résumé

L'espace est une excellente combinaison de chats !? Qui aurait su! Comme tu peux le voir, les résultats que donne le modèle sont idiots et n'ont pas beaucoup de sens. Comme avec tous les modèles d'apprentissage en profondeur, il y a beaucoup de choses qui pourraient être modifiées pour générer de meilleurs résultats. Je te le laisse.

Abonnez-vous à notre newsletter

Nous ne vous enverrons pas de courrier SPAM. Nous le détestons autant que vous.