Armazenar modelos em intervalos do Google Cloud Storage e, em seguida, escrever funções do Google Cloud. Usando Python para recuperar modelos do repositório e usando solicitações HTTP JSON, podemos obter valores previstos para as entradas fornecidas com a ajuda do Google Cloud Function.
1. Em relação aos dados, código e modelos
Pegando as críticas de filmes conjuntos de dados para análise de sentimento, veja a resposta aqui no meu repositório GitHub e dados, Modelos também disponível no mesmo repositório.
2. Crie um intervalo de armazenamento
Ao executar o “ServerlessDeployment.ipynb"O arquivo obterá 3 modelos ML: Classificador de decisão, LinearSVC e Regressão Logística.
Clique na opção Navegador de armazenamento para criar um novo intervalo, conforme mostrado na imagem:
FIG: clique na opção GCP Store
3. Crie uma nova função
Crie um novo intervalo, em seguida, crie uma pasta e carregue o 3 modelos nessa pasta criando 3 subpastas como mostrado.
Aqui Modelos são o nome da minha pasta principal e minhas subpastas são:
- modelo_de_árvore_de_decisão
- linear_svc_model
- logistic_region_model
FIG: Pastas no armazenamento
4. Crie uma função
Subseqüentemente, vá para o Google Cloud Functions e crie uma função, em seguida, selecione o tipo de gatilho como HTTP e selecione a linguagem como Python (você pode selecionar qualquer idioma):
FIG: Selecione a opção GCP Cloud Function
5. Escreva a função de nuvem no editor.
Verifique a função de nuvem em meu repositório, aqui, importei as bibliotecas necessárias para chamar modelos do google cloud warehouse e outras bibliotecas para solicitação HTTP Método GET usado para testar a solução de url e método POST, exclua o modelo padrão e cole nosso código mais tarde pepino é usado para desserializar nosso modelo google.cloud: acesse nosso recurso de armazenamento em nuvem.
Se a solicitação recebida for PEGUE nós simplesmente retornamos “bem vindo ao classificador”.
Se a solicitação recebida for CORRESPONDÊNCIA insira os dados JSON no corpo da solicitação obter JSON nos dá para instanciar o objeto do cliente de armazenamento e inserir os modelos do warehouse, aqui temos 3 – modelos de classificação no armazém.
Se o usuário especificar "Classificador de decisão", acessamos o modelo da respectiva pasta, respectivamente, com outros modelos.
Se o usuário não especificar nenhum modelo, o modelo padrão é o modelo de regressão logística.
A variável blob contém uma referência ao arquivo model.pkl para o modelo correto.
Baixamos o arquivo .pkl na máquina local onde esta função é executada na nuvem. Agora, cada invocação pode ser executada em uma VM diferente e só acessamos a pasta / temp na VM, é por isso que salvamos nosso arquivo model.pkl.
Desesterilizamos o modelo invocando pkl.load para inserir as instâncias de predição da solicitação de entrada e chamamos model.predict nos dados de predição.
A solução que será enviada da função sem servidor é o texto original que é a revisão que queremos categorizar e nossa classe pred.
Depois de main.py, escreva o required.txt com as bibliotecas e versões necessárias
5. Coloque o modelo em prática
6. Experimente o modelo
Torne-se um cientista de dados full stack aprendendo várias implementações de modelos de ML e o motivo por trás dessa ótima explicação nos primeiros dias. Tenho dificuldade em aprender a implementação de modelos de ML, então decidi que meu blog deve ser útil para iniciantes em ciência de dados do início ao fim.