Déploiement sans serveur | Déploiement sans serveur du modèle ML

Partager sur Facebook
Partager sur Twitter
Partager sur lié
Partager sur télégramme
Partager sur WhatsApp

Contenu

Stocker des modèles dans des buckets Google Cloud Storage, puis écrire des fonctions Google Cloud. Utilisation de Python pour récupérer des modèles à partir du référentiel et utilisation de requêtes HTTP JSON, nous pouvons obtenir des valeurs prédites pour les entrées données à l'aide de Google Cloud Function.

1. Concernant les données, codes et modèles

Prendre les critiques de films ensembles de données pour l'analyse des sentiments, voir la réponse ici dans mon dépôt GitHub et Les données, Des modèles également disponible dans le même référentiel.

2. Créer un bucket de stockage

Lors de l'exécution du “Déploiement sans serveur.ipynb"Le fichier obtiendra 3 modèles ML: Classificateur de décision, LinearSVC et régression logistique.

Cliquez sur l'option Navigateur de stockage pour créer un nouveau compartiment comme indiqué dans l'image:

bucket de stockage de déploiement sans serveur

FIGUE: cliquez sur l'option GCP Store

3. Créer un nouveau rôle

Créer un nouveau compartiment, puis créez un dossier et chargez le 3 modèles dans ce dossier création 3 sous-dossiers comme indiqué.

Ici Des modèles sont mon nom de dossier principal et mes sous-dossiers sont:

  • modèle_arbre_de_décision
  • linear_svc_model
  • modèle_région_logistique

nouveau modèle de déploiement sans serveur

FIGUE: Dossiers en stockage

4. Créer une fonction

Ensuite, accédez à Google Cloud Functions et créez une fonction, puis sélectionnez le type de déclencheur en tant que HTTP et sélectionnez le langage en tant que Python (vous pouvez sélectionner n'importe quelle langue):

une fonction

FIGUE: Sélectionnez l'option Fonction Cloud GCP

5. Ecrire la fonction cloud dans l'éditeur.

Vérifier la fonction cloud dans mon référentiel, ici, j'ai importé les bibliothèques requises pour appeler des modèles à partir de l'entrepôt de cloud google et d'autres bibliothèques pour la méthode GET de requête HTTP utilisée pour tester la solution d'URL et la méthode POST, supprimez le modèle par défaut et collez notre code plus tard cornichon est utilisé pour désérialiser notre modèle google.cloud: accéder à notre fonctionnalité de stockage en nuage.

Si la demande entrante est AVOIR nous revenons simplement “bienvenue dans le classificateur”.

Si la demande entrante est COURRIER entrez les données JSON dans le corps de la requête get JSON nous donne pour instancier l'objet client de stockage et entrez les modèles de l'entrepôt, ici nous avons 3 – modèles de classification dans l'entrepôt.

Si l'utilisateur spécifie "Classificateur de décision", nous accédons au modèle à partir du dossier respectif respectivement avec d'autres modèles.

Si l'utilisateur ne spécifie aucun modèle, le modèle par défaut est le modèle de régression logistique.

La variable blob contient une référence au fichier model.pkl pour le modèle correct.

Nous téléchargeons le fichier .pkl sur la machine locale où cette fonction est exécutée dans le cloud. À présent, chaque invocation peut s'exécuter dans une machine virtuelle différente et nous n'accédons qu'au dossier / temp sur la VM, c'est pourquoi nous sauvegardons notre fichier model.pkl.

Nous désinfectons le modèle en appelant pkl.load pour saisir les instances de prédiction à partir de la requête entrante et nous appelons model.predict sur les données de prédiction.

La solution qui sera envoyée depuis la fonction sans serveur est le texte original qui est la révision que nous voulons catégoriser et notre classe pred.

Après main.py, écrivez requirements.txt avec les bibliothèques et versions requises

éditeur de fonction cloud d'écriture

5. Mettre le modèle en pratique

6. Essayez le modèle

Devenez un data scientist full stack en apprenant diverses implémentations de modèles ML et la raison de cette excellente explication au début J'ai du mal à apprendre l'implémentation de modèles ML, j'ai donc décidé que mon blog devrait être utile pour les débutants en science des données du début à la fin.

Abonnez-vous à notre newsletter

Nous ne vous enverrons pas de courrier SPAM. Nous le détestons autant que vous.