Implantação sem servidor | Implantação sem servidor de modelo de ML

Compartilhar no Facebook
Compartilhar no Twitter
Compartilhar no LinkedIn
Compartilhar no telegrama
Compartilhar no Whatsapp

Conteúdo

Armazenar modelos em intervalos do Google Cloud Storage e, em seguida, escrever funções do Google Cloud. Usando Python para recuperar modelos do repositório e usando solicitações HTTP JSON, podemos obter valores previstos para as entradas fornecidas com a ajuda do Google Cloud Function.

1. Em relação aos dados, código e modelos

Pegando as críticas de filmes conjuntos de dados para análise de sentimento, veja a resposta aqui no meu repositório GitHub e dados, Modelos também disponível no mesmo repositório.

2. Crie um intervalo de armazenamento

Ao executar o “ServerlessDeployment.ipynb"O arquivo obterá 3 modelos ML: Classificador de decisão, LinearSVC e Regressão Logística.

Clique na opção Navegador de armazenamento para criar um novo intervalo, conforme mostrado na imagem:

intervalo de armazenamento de implantação sem servidor

FIG: clique na opção GCP Store

3. Crie uma nova função

Crie um novo intervalo, em seguida, crie uma pasta e carregue o 3 modelos nessa pasta criando 3 subpastas como mostrado.

Aqui Modelos são o nome da minha pasta principal e minhas subpastas são:

  • modelo_de_árvore_de_decisão
  • linear_svc_model
  • logistic_region_model

novo modelo de implantação sem servidor

FIG: Pastas no armazenamento

4. Crie uma função

Subseqüentemente, vá para o Google Cloud Functions e crie uma função, em seguida, selecione o tipo de gatilho como HTTP e selecione a linguagem como Python (você pode selecionar qualquer idioma):

Função

FIG: Selecione a opção GCP Cloud Function

5. Escreva a função de nuvem no editor.

Verifique a função de nuvem em meu repositório, aqui, importei as bibliotecas necessárias para chamar modelos do google cloud warehouse e outras bibliotecas para solicitação HTTP Método GET usado para testar a solução de url e método POST, exclua o modelo padrão e cole nosso código mais tarde pepino é usado para desserializar nosso modelo google.cloud: acesse nosso recurso de armazenamento em nuvem.

Se a solicitação recebida for PEGUE nós simplesmente retornamos “bem vindo ao classificador”.

Se a solicitação recebida for CORRESPONDÊNCIA insira os dados JSON no corpo da solicitação obter JSON nos dá para instanciar o objeto do cliente de armazenamento e inserir os modelos do warehouse, aqui temos 3 – modelos de classificação no armazém.

Se o usuário especificar "Classificador de decisão", acessamos o modelo da respectiva pasta, respectivamente, com outros modelos.

Se o usuário não especificar nenhum modelo, o modelo padrão é o modelo de regressão logística.

A variável blob contém uma referência ao arquivo model.pkl para o modelo correto.

Baixamos o arquivo .pkl na máquina local onde esta função é executada na nuvem. Agora, cada invocação pode ser executada em uma VM diferente e só acessamos a pasta / temp na VM, é por isso que salvamos nosso arquivo model.pkl.

Desesterilizamos o modelo invocando pkl.load para inserir as instâncias de predição da solicitação de entrada e chamamos model.predict nos dados de predição.

A solução que será enviada da função sem servidor é o texto original que é a revisão que queremos categorizar e nossa classe pred.

Depois de main.py, escreva o required.txt com as bibliotecas e versões necessárias

escrever editor de função de nuvem

5. Coloque o modelo em prática

6. Experimente o modelo

Torne-se um cientista de dados full stack aprendendo várias implementações de modelos de ML e o motivo por trás dessa ótima explicação nos primeiros dias. Tenho dificuldade em aprender a implementação de modelos de ML, então decidi que meu blog deve ser útil para iniciantes em ciência de dados do início ao fim.

Assine a nossa newsletter

Nós não enviaremos SPAM para você. Nós odiamos isso tanto quanto você.