Biblioteca AutoScraper | Automatize o web scraping com a biblioteca AutoScraper

Conteúdo

Este artigo foi publicado como parte do Data Science Blogathon.

Introdução

379801-3158445

Web Scraping é um método ou arte para obter ou excluir dados da Internet ou sites e armazená-los localmente em seu sistema. Web Scripting é uma estratégia programada para adquirir muitas informações de sites.

A grande maioria dessas informações são informações não estruturadas em um layout HTML que posteriormente são convertidas em informações organizadas em uma página de contabilidade ou conjunto de dados., então tende a ser usado em diferentes aplicações. Há uma ampla gama de abordagens de web scraping para obter informações de sites. Isso inclui o uso de aplicativos da web, API específicas o, em qualquer caso, faça seu código para web scraping sem qualquer preparação.

263984-2243987

Vários sites enormes como o Google, Twitter, Facebook, StackOverflow, etc. têm APIs que permitem acessar suas informações em uma organização organizada. Esta é a opção mais ideal, mas diferentes localidades não permitem que os clientes acessem muitas informações em uma estrutura organizada ou, em essência, eles não progridem tão mecanicamente. Por ai, é ideal usar Web Scraping para encontrar informações no site.

39297web-scraping1-5983647

Os Web Scrapers podem extrair todas as informações sobre destinos específicos ou as informações específicas de que o cliente precisa. Preferencialmente, é ideal se você indicar as informações de que precisa para que o raspador da web simplesmente concentre essas informações rapidamente. Por exemplo, você deve raspar uma página da Amazon para os tipos de espremedores disponíveis, porém, você pode precisar apenas das informações sobre os modelos de vários espremedores e não das auditorias de clientes.

585743-7264816

Então, quando um depurador da web precisa arranhar um site, primeiro você recebe os URLs das localidades necessárias. Nesse ponto, empilhar todo o código HTML para esses destinos e um raspador mais desenvolvido pode até mesmo concentrar todos os componentes CSS e Javascript também. Nesse ponto, o raspador obtém as informações necessárias deste código HTML e transfere essas informações para a organização indicada pelo cliente.

Geralmente, isso é como uma página de contabilidade do Excel ou um registro csv, porém, as informações também podem ser armazenadas em diferentes organizações, por exemplo, un documento JSON.

227382-5560525

Bibliotecas populares de Python para web scraping

  1. Petições
  2. Sopa linda 4
  3. lxml
  4. Selênio
  5. Scrapy

AutoScraper

É uma biblioteca de web scraping em Python para tornar a web scraping inteligente, automático, Rápido e fácil. Também é leve, o que significa que não afetará muito o seu PC. Um usuário pode usar facilmente esta ferramenta de coleta de dados devido à sua interface amigável.. Para iniciar, você só precisa escrever algumas linhas de código e você verá a mágica.

Você só precisa fornecer o URL ou o conteúdo HTML da página da web da qual deseja remover os dados, O que mais, um resumo das informações de teste que devemos remover dessa página. Esta informação pode ser um texto, URL ou qualquer tag HTML nessa página. Aprenda as regras de rascunho por conta própria e devolva itens semelhantes.

Neste artigo, vamos investigar o Autoscraper e ver como podemos usá-lo para remover nossas informações.

36930auto-4904365

Instalação

Existem 3 maneiras de instalar esta biblioteca em seu sistema.

  • Instale a partir do repositório git usando pip:
pip install git + https://github.com/alirezamika/autoscraper.git
pip install autoscraper
python setup.py install


Importando biblioteca

Só importaremos um raspador automático, pois é adequado apenas para arranhar a web. Abaixo está o código para importar:

de autoscraper import AutoScraper


Definição da função web scraping

Comecemos caracterizando uma URL a partir da qual ela será usada para trazer as informações e as provas das informações necessárias a serem trazidas. Suponha que queremos pesquisar o Títulos para diferentes artigos sobre aprendizado de máquina no site DataPeaker. Portanto, temos que passar o URL da seção do blog de aprendizado de máquina DataPeaker e a segunda lista de procurados. A lista de procurados é uma lista que é Dados de amostra que queremos extrair dessa página. Por exemplo, aqui, a lista de procurados é um título de qualquer blog na seção de blog de aprendizado de máquina do DataPeaker.

url ="https://www.analyticsvidhya.com/blog/category/machine-learning/"
queria_lista = ['Matriz de confusão: Intuição detalhada e truque para aprender ']

Podemos adicionar um ou mais candidatos à lista de procurados. Você também pode colocar URLs na lista de desejados para recuperá-los.

33282screenshot-1-9422500

Inicie o AutoScraper

A próxima etapa após iniciar o URL e a lista desejada é chamar a função AutoScraper. Nosso objetivo é usar esse recurso para construir o modelo de raspador e realizar web scraping nessa página específica.

Isso pode ser iniciado usando o seguinte código:

raspador = AutoScraper()


Construindo o Objeto

Esta é a etapa final do web scraping com esta biblioteca específica. Aqui, criar o objeto e mostrar o resultado do web scraping.

raspador = AutoScraper()
resultado = scraper.build(url, lista de procurados)
imprimir(resultado)
46614output-6698947

Aqui, na foto acima, você pode ver que volta. o título dos blogs no site da DataPeaker na seção de aprendizado de máquina, de forma similar, podemos obter os URLs dos blogs simplesmente passando o URL de amostra na lista de procurados que definimos anteriormente.

url ="https://www.analyticsvidhya.com/blog/category/machine-learning/"
queria_lista = ['https://www.analyticsvidhya.com/blog/2021/04/confusion-matrix-detailed-intuition-and-trick-to-learn/ ']
raspador = AutoScraper()
resultado = scraper.build(url, lista de procurados)
imprimir(resultado)

Aqui está a saída do código acima. Você pode ver que eu passei o url na lista de procurados desta vez, como resultado, você pode ver o resultado como urls de blog

98191output-1-2331296

Salve o modelo

Isso nos permite salvar o modelo que temos que construir para poder recarregá-lo quando necessário.

Para salvar o modelo, use o seguinte código

scraper.save('blogs')      #Forneça um caminho de arquivo

Para carregar o modelo, use o seguinte código:

scraper.load('blogs')

Observação: Além de cada uma dessas funcionalidades, o raspador automático também permite caracterizar endereços IP de proxy para que você possa usá-los para obter informações. Precisamos simplesmente caracterizar os proxies e passá-los como um argumento para a função de construção conforme mostrado abaixo:

proxies = {
    "http": 'http://127.0.0.1:8001',
    "https": 'https://127.0.0.1:8001',
}

resultado = scraper.build(url, lista de procurados, request_args = dict(proxies = proxies))

Para maiores informações, veja o link abaixo: AutoScraper

conclusão

Neste artigo, percebemos como podemos usar o Autoscraper para web scraping criando um modelo básico e simples de usar. Vimos vários formatos nos quais as informações podem ser recuperadas usando o Autoscraper. Também podemos salvar e carregar o modelo para usá-lo mais tarde, o que economiza tempo e esforço. O Autoscraper é incrível, fácil de usar e eficiente.

Obrigado por ler este artigo e por sua paciência.. Deixe-me na seção de comentários sobre comentários. Compartilhe este artigo, isso me motivará a escrever mais blogs para a comunidade de ciência de dados.

Identificação de e-mail: gakshay1210@ gmail.com

Me siga no LinkedIn: LinkedIn

A mídia mostrada neste artigo não é propriedade da DataPeaker e é usada a critério do autor.

Assine a nossa newsletter

Nós não enviaremos SPAM para você. Nós odiamos isso tanto quanto você.