Voltar ao blogue
Guias
Raluca PenciucLast updated on Mar 31, 202615 min read

Como extrair dados de produtos da Amazon: um guia completo sobre as melhores práticas e ferramentas

Como extrair dados de produtos da Amazon: um guia completo sobre as melhores práticas e ferramentas

A Amazon, gigante global do comércio eletrónico, é um verdadeiro tesouro de dados essenciais que inclui detalhes complexos, como descrições de produtos, avaliações de clientes, estruturas de preços e muito mais. Aproveitar estas informações de forma significativa é crucial no panorama empresarial atual. Quer o seu objetivo seja avaliar o desempenho dos produtos oferecidos por vendedores terceiros, analisar a concorrência ou realizar uma pesquisa de mercado abrangente, a utilização de ferramentas especializadas de web scraping, como o Amazon Scraper, é essencial.

No entanto, o processo de web scraping da Amazon é único e apresenta o seu próprio conjunto de desafios e complexidades. Este guia detalhado tem como objetivo fornecer uma visão geral abrangente de cada fase necessária para construir um web scraper da Amazon totalmente funcional, permitindo-lhe aproveitar estes dados vitais de forma eficaz. Irá guiá-lo através das considerações e técnicas específicas adaptadas à complexa estrutura da Amazon, ajudando-o a navegar pelas nuances desta poderosa plataforma.

Desde a compreensão dos aspetos legais e éticos do web scraping até à apresentação de passos práticos e concretos para criar uma ferramenta de scraping personalizada, este guia irá dotá-lo do conhecimento e das ferramentas necessárias para transformar o vasto repositório de dados da Amazon em insights úteis para o seu negócio.

Preparação para o scraping da Amazon

O scraping da Amazon é uma tarefa complexa que requer um conjunto de ferramentas e uma abordagem estratégica. Aqui está um guia passo a passo para preparar o seu sistema para o scraping de dados de produtos da Amazon.

Passo 1: Instalar o Python

O Python é a principal linguagem de programação para web scraping. Certifique-se de que tem o Python 3.8 ou superior instalado. Caso contrário, aceda a python.org para descarregar e instalar a versão mais recente do Python.

Passo 2: Crie uma pasta de projeto

Crie uma pasta dedicada para armazenar os seus ficheiros de código para a extração de dados da Amazon. Organizar os seus ficheiros tornará o seu fluxo de trabalho mais fluido.

Passo 3: Configure um ambiente virtual

A criação de um ambiente virtual é considerada uma boa prática no desenvolvimento em Python. Permite-lhe gerir dependências específicas do projeto, garantindo que não haja conflitos com outros projetos.

Para utilizadores de macOS e Linux, execute os seguintes comandos para criar e ativar um ambiente virtual:

$ python3 -m venv .env
$ source .env/bin/activate

Para utilizadores do Windows, os comandos são ligeiramente diferentes:

c:\amazon>python -m venv .env
c:\amazon>.env\scripts\activate

Passo 4: Instalar os pacotes Python necessários

Dois passos principais na extração de dados da web são recuperar o HTML e analisá-lo para extrair os dados relevantes.

  • Biblioteca Requests: Uma popular biblioteca Python de terceiros utilizada para efetuar pedidos HTTP. Oferece uma interface simples para comunicar com servidores web, mas devolve HTML como uma cadeia de caracteres, o que não é fácil de consultar.
  • Beautiful Soup: Esta biblioteca Python ajuda na extração de dados da Web para extrair dados de ficheiros HTML e XML, permitindo a pesquisa de elementos específicos como tags, atributos ou texto.

Instale estas bibliotecas utilizando o seguinte comando:

$ python3 -m pip install requests beautifulsoup4

Nota para utilizadores do Windows: Substitua python3 por python.

Passo 5: Configuração básica de scraping

Crie um ficheiro chamado amazon.py e insira o código para enviar um pedido a uma página específica de um produto da Amazon. Por exemplo:

import requests
url = 'https://www.amazon.com/Robux-Roblox-Online-Game-Code/dp/B07RZ74VLR/'
response = requests.get(url)
print(response.text)

A execução deste código pode levar a Amazon a bloquear a solicitação e a retornar um erro 503, uma vez que reconhece que a solicitação não foi feita através de um navegador.

Passo 6: Contornar os mecanismos de bloqueio

A Amazon bloqueia frequentemente tentativas de scraping, devolvendo códigos de erro que começam por 400 ou 500. Para contornar isto, pode simular um navegador enviando cabeçalhos personalizados, incluindo o user-agent e, por vezes, o accept-language.

Encontre o user-agent do seu navegador premindo F12, abrindo o separador Rede, recarregando a página e examinando os cabeçalhos de pedido.

Eis um exemplo de dicionário para cabeçalhos personalizados:

custom_headers = {
    'user-agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/602.18 (KHTML, like Gecko) Chrome/54.0.3129.163 Safari/602.6 Edge/9.50428',
    'accept-language': 'en-US,en;q=0.9',
}

Envie este dicionário utilizando o método get da seguinte forma:

response = requests.get(url, headers=custom_headers)

Isto irá provavelmente produzir o HTML desejado com os detalhes do produto. O envio do maior número possível de cabeçalhos minimiza a necessidade de renderização JavaScript. Se a renderização for necessária, podem ser utilizadas ferramentas como o Playwright ou o Selenium.

Extracção de dados de produtos da Amazon

Quando se trata da extração de informações de produtos da Amazon, normalmente deparamo-nos com dois tipos principais de páginas que contêm os dados essenciais: a página de categorias e a página de detalhes do produto. Cada uma delas desempenha um papel crucial na extração das informações necessárias, e é vital saber como navegar em ambas.

A página de categorias

Tomemos, por exemplo, o URL https://www.amazon.com/s?i=specialty-aps&bbn=16225007011&rh=n%3A16225007011%2Cn%3A193870011

Na página de categoria, encontrará o básico:

  • Título do produto: O nome do produto.
  • Imagem do produto: Representação visual do artigo.
  • Avaliação do produto: Avaliações e comentários dos utilizadores.
  • Preço do produto: O preço de venda atual.
  • Página de URLs do produto: Links para as páginas individuais dos produtos.

Caso necessite de informações mais detalhadas, como as descrições ou especificações do produto, terá de aceder às páginas de detalhes de cada produto.

Explorar a página de detalhes do produto

Ao clicar num URL de produto (como https://www.amazon.com/Robux-Roblox-Online-Game-Code/dp/B07RZ74VLR/), entrará num tesouro de informações detalhadas. Para ver como estas informações estão estruturadas, pode utilizar um navegador moderno como o Chrome.

Inspecionar elementos HTML

Clique com o botão direito do rato no título do produto e selecione «Inspecionar». Irá encontrar a marcação HTML do título do produto destacada. Mais especificamente, esta está contida numa tag span e o seu atributo id está definido como «productTitle».

O mesmo método pode ser utilizado para encontrar a marcação de outros elementos essenciais:

  • Preço: Clique com o botão direito do rato no preço e selecione «Inspecionar». A parte do preço em dólares está contida numa tag span com a classe «a-price-whole», enquanto os cêntimos estão armazenados noutra tag span, designada com a classe «a-price-fraction».
  • Classificação, imagem e descrição: utilize a mesma funcionalidade de inspeção para localizar estes componentes essenciais, cada um deles envolvido em tags e classes específicas.

O processo de extração de dados de produtos da Amazon pode ser dividido em etapas específicas, cada uma focada num aspeto particular das informações do produto. Ao utilizar bibliotecas Python como requests e BeautifulSoup, podemos aceder, localizar e extrair os detalhes desejados. Aqui está um guia detalhado sobre como proceder:

1. Inicie o pedido

Comece por enviar uma solicitação GET com cabeçalhos personalizados para a URL da página do produto:

response = requests.get(url, headers=custom_headers)
soup = BeautifulSoup(response.text, 'lxml')

Utilizamos o BeautifulSoup para analisar o conteúdo HTML, o que facilita a consulta de informações específicas através de seletores CSS. 2. Localizar e extrair o nome do produto

Identifique o título do produto utilizando o ID único productTitle dentro de um elemento span:

title_element = soup.select_one('#productTitle')
title = title_element.text.strip()

3. Localizar e extrair a classificação do produto

Para extrair a classificação do produto, é necessário aceder ao atributo title do seletor #acrPopover:

rating_element = soup.select_one('#acrPopover')
rating_text = rating_element.attrs.get('title')
rating = rating_text.replace('out of 5 stars', '')

4. Localizar e extrair o preço do produto

Extraia o preço do produto utilizando o seletor #price_inside_buybox:

price_element = soup.select_one('#price_inside_buybox')
print(price_element.text)

5. Localizar e extrair a imagem do produto

Recupere o URL da imagem padrão utilizando o seletor #landingImage:

image_element = soup.select_one('#landingImage')
image = image_element.attrs.get('src')

6. Localizar e extrair a descrição do produto

Recupere a descrição do produto utilizando o seletor #productDescription:

description_element = soup.select_one('#productDescription')
print(description_element.text)

7. Localizar e extrair as avaliações do produto

Extrair avaliações é mais complexo, uma vez que um produto pode ter várias avaliações. Uma única avaliação pode conter várias informações, como autor, classificação, título, conteúdo, data e estado de verificação.

Recolher avaliações

Utilize o seletor div.review para identificar e recolher todas as avaliações:

review_elements = soup.select("div.review")
scraped_reviews = []

for review in review_elements:
   # Extracting specific review details...

Extrair detalhes das avaliações

Cada avaliação pode ser dividida em detalhes específicos:

  • Autor: span.a-profile-name
  • Classificação: i.review-rating
  • Título: a.review-title > span:not([class])
  • Conteúdo: span.review-text
  • Data: span.review-date
  • Estado verificado: span.a-size-mini

Cada um destes elementos pode ser selecionado utilizando os respetivos seletores CSS e, em seguida, extraído utilizando métodos semelhantes aos passos anteriores.

Reunir os dados da avaliação

Crie um objeto contendo os detalhes da avaliação extraídos e acrescente-o à matriz de avaliações:

r = {
       "author": r_author,
       "rating": r_rating,
       "title": r_title,
       "content": r_content,
       "date": r_date,
       "verified": r_verified
}

scraped_reviews.append(r)

A extração de dados de produtos da Amazon é uma tarefa multifacetada que requer uma abordagem precisa para identificar elementos específicos dentro da estrutura da página web. Ao tirar partido das capacidades das modernas ferramentas de web scraping, é possível extrair com sucesso informações detalhadas sobre os produtos.

Tratamento da lista de produtos

Para extrair informações detalhadas sobre produtos, começará frequentemente por uma lista de produtos ou página de categoria, onde os produtos são apresentados numa grelha ou numa vista de lista.

Identificar links de produtos

Numa página de categoria, poderá notar que cada produto está contido num div com um atributo específico [data-asin]. Os links para produtos individuais encontram-se frequentemente dentro de uma tag h2 dentro deste div.

O seletor CSS correspondente a estes links seria:

[data-asin] h2 a

Analisar e seguir links

Pode utilizar o BeautifulSoup para selecionar estes links e extrair os atributos href. Note que estes links podem ser relativos, pelo que deverá utilizar o método urljoin para os converter em URLs absolutas.

from urllib.parse import urljoin

def parse_listing(listing_url):
    # Your code to fetch and parse the page goes here...
    link_elements = soup_search.select("[data-asin] h2 a")
    page_data = []
    for link in link_elements:
        full_url = urljoin(listing_url, link.attrs.get("href"))
        product_info = get_product_info(full_url)
        page_data.append(product_info)

Lidar com a paginação

Muitas páginas de listagem são paginadas. Pode navegar para a página seguinte localizando o link que contém o texto «Next».

next_page_el = soup.select_one('a:contains("Next")')
if next_page_el:
    next_page_url = next_page_el.attrs.get('href')
    next_page_url = urljoin(listing_url, next_page_url)

Pode então utilizar este URL para analisar a página seguinte, continuando o ciclo até não haverem mais links «Seguinte».

8. Exportar dados de produtos extraídos para um ficheiro JSON

Os dados de produtos extraídos estão a ser recolhidos como dicionários dentro de uma lista. Este formato permite uma fácil conversão para um DataFrame do Pandas, facilitando a manipulação e exportação de dados.

Veja como pode criar um DataFrame a partir dos dados extraídos e guardá-lo como um ficheiro JSON:

import pandas as pd

df = pd.DataFrame(page_data)
df.to_json('baby.json', orient='records')

Isto irá criar um ficheiro JSON contendo todas as informações dos produtos extraídos.

Este guia fornece um passo a passo sobre como extrair listagens de produtos, incluindo a navegação pela paginação e a exportação dos resultados para um ficheiro JSON. É essencial adaptar estes métodos à estrutura e aos requisitos específicos do site que está a extrair.

Código completo

import requests
from bs4 import BeautifulSoup
from urllib.parse import urljoin
import pandas as pd

custom_headers = {
    "accept-language": "en-US,en;q=0.9",
    "user-agent": "{user-agent}",
}

def get_response(url):
    """Make a GET request and return the response if successful."""
    with requests.Session() as session:
        session.headers.update(custom_headers)
        response = session.get(url)
        if response.status_code != 200:
            print(f"Error in getting webpage {url}")
            return None
        return response

def get_product_info(url):
    """Scrape product details from the given URL."""
    response = get_response(url)
    if response is None:
        return None

    # ... rest of the code ...

    return {
        "title": title,
        "price": price,
        "rating": rating,
        "image": image,
        "description": description,
        "url": url,
        "reviews": scraped_reviews,
    }

def parse_listing(listing_url):
    """Parse multiple product listings from the given URL."""
    page_data = []
    while listing_url:
        response = get_response(listing_url)
        if response is None:
            break

        soup_search = BeautifulSoup(response.text, "lxml")
        link_elements = soup_search.select("[data-asin] h2 a")

        for link in link_elements:
            full_url = urljoin(listing_url, link.attrs.get("href"))
            print(f"Scraping product from {full_url[:100]}", flush=True)
            product_info = get_product_info(full_url)
            if product_info:
                page_data.append(product_info)

        next_page_el = soup_search.select_one('a:contains("Next")')
        listing_url = urljoin(listing_url, next_page_el.attrs.get('href')) if next_page_el else None
        print(f'Scraping next page: {listing_url}', flush=True) if listing_url else None

    return page_data

def main():
    search_url = "{category url}"
    data = parse_listing(search_url)
    df = pd.DataFrame(data)
    df.to_json("amz.json", orient='records')

if __name__ == '__main__':
    main()

Melhores práticas e técnicas

Extrair dados da Amazon não é tão simples como pode parecer. Com a crescente complexidade da segurança na web, extrair informações valiosas desta colossal plataforma de comércio eletrónico apresenta uma miríade de desafios. Desde a limitação de taxa até algoritmos complexos de deteção de bots, a Amazon garante que continua a ser um alvo desafiante para a extração de dados.

Desafios na extração de dados da Amazon

  • Limitação de taxa: a Amazon aplica medidas de limitação de taxa para controlar o número de pedidos a partir de um único endereço IP. Exceder estes limites pode resultar no bloqueio do seu IP.
  • Algoritmos de deteção de bots: Estão implementados algoritmos sofisticados para inspecionar os seus cabeçalhos HTTP em busca de padrões invulgares, verificando se os pedidos provêm de bots automatizados.
  • Layouts em constante mudança: Com vários layouts de página e estruturas HTML variáveis, acompanhar a interface em constante mudança requer vigilância e adaptabilidade.

Estratégias para superar os desafios

Contornar estes obstáculos requer uma abordagem estratégica. Aqui estão algumas práticas recomendadas essenciais a seguir ao fazer scraping na Amazon:

  • Utilize um User-Agent realista: Fazer com que o seu User-Agent pareça genuíno é crucial para contornar a deteção. Aqui estão os user agents mais comuns que imitam a atividade real de um navegador.
  • Defina a sua impressão digital de forma consistente: Muitas plataformas, incluindo a Amazon, utilizam o Protocolo de Controlo de Transmissão (TCP) e a identificação por impressão digital de IP para identificar bots. Garantir que os parâmetros da sua impressão digital permanecem uniformes é vital para passar despercebido.
  • Altere o padrão de rastreamento de forma ponderada: Criar um padrão de rastreamento bem-sucedido envolve simular a forma como um utilizador genuíno navegaria numa página web. Isto inclui incorporar cliques, deslocamentos e movimentos do rato que imitem o comportamento humano. Conceber um padrão que espelhe a interação humana pode reduzir a probabilidade de deteção.
  • Considere a gestão de proxies: Embora o artigo inicial não mencione isto, a utilização de proxies pode adicionar uma camada extra de anonimato. Ao distribuir os pedidos por vários endereços IP, pode evitar ainda mais a deteção.
  • Mantenha-se atualizado com as políticas e tecnologias da Amazon: A Amazon atualiza frequentemente as suas medidas de segurança e interface de utilizador. Rever regularmente e adaptar os seus métodos de scraping a estas alterações garantirá que as suas técnicas permaneçam eficazes.

A tarefa de extrair dados de produtos da Amazon é complexa, exigindo uma compreensão profunda das melhores práticas e uma adaptação constante às estratégias em evolução da Amazon. Ao adotar estas técnicas e manter-se atento ao panorama em constante mudança, pode aceder aos dados valiosos necessários para a sua análise ou projeto. Lembre-se de que isto é apenas uma visão superficial do que é necessário ao extrair dados da Amazon, e que podem ser necessárias pesquisas e ferramentas adicionais para atingir os seus objetivos específicos.

Uma forma simples de extrair dados da Amazon: utilizar a API do Amazon Scraper

Embora os métodos de scraping manual detalhados acima possam certamente fornecer informações valiosas, exigem monitorização contínua, adaptação e conhecimentos técnicos. Para quem procura uma abordagem mais simplificada e intuitiva, a API do Amazon Scraper oferece uma solução eficiente e dedicada.

Porquê escolher a API do Amazon Scraper?

A API do Amazon Scraper é uma ferramenta criada especificamente para lidar com as complexidades da extração de dados da Amazon. Eis o que pode alcançar com esta API especializada:

  • Opções versáteis de scraping: Pode extrair e analisar vários tipos de páginas da Amazon. Quer pretenda extrair dados das páginas de Pesquisa, Produtos, Lista de Ofertas, Perguntas e Respostas, Críticas, Mais Vendidos ou Vendedores, esta API tem tudo o que precisa.
  • Alcance global: identifique e recupere dados de produtos localizados em 195 locais em todo o mundo. Esta vasta cobertura permite uma análise robusta e insights sobre diferentes mercados e dados demográficos.
  • Recuperação eficiente de dados: A API devolve resultados analisados com precisão num formato JSON limpo. Não há necessidade de bibliotecas adicionais ou configurações complexas; recebe os dados prontos para utilização imediata.
  • Funcionalidades melhoradas para necessidades avançadas: Desfrute de funcionalidades concebidas para a eficiência, tais como capacidades de scraping em massa e tarefas automatizadas. Estas funcionalidades simplificam o processo de scraping, permitindo-lhe recolher grandes quantidades de dados com intervenção manual mínima.
  • Conformidade e facilidade de utilização: Ao contrário da extração manual, a utilização de uma API dedicada como a Amazon Scraper API garante frequentemente uma melhor conformidade com os regulamentos legais e os termos de serviço da Amazon, tornando-a uma opção mais segura para a extração de dados.

Conclusão

A extração de dados de produtos da Amazon pode ser abordada através de dois métodos distintos, cada um atendendo a diferentes conjuntos de competências e requisitos. Vamos explorar ambas as vias:

Criar o seu próprio scraper com Requests e Beautiful Soup

Se tem inclinação para a programação e possui as competências necessárias, criar um scraper personalizado utilizando bibliotecas Python populares como o Requests e o Beautiful Soup pode ser um projeto intrigante. Aqui está uma breve visão geral do processo:

Envio de cabeçalhos personalizados: Ao personalizar os cabeçalhos HTTP, pode imitar pedidos genuínos do navegador e evitar a deteção.

Rotação de User-Agents: Alterações frequentes no User-Agent podem disfarçar ainda mais as suas atividades de scraping, fazendo com que pareçam mais interações de utilizadores comuns.

Rotação de proxies: A utilização de um conjunto de proxies permite-lhe distribuir os pedidos por vários endereços IP, ajudando a contornar bloqueios ou limitações de taxa.

Embora este método ofereça flexibilidade e controlo, exige um esforço significativo, tempo e monitorização contínua. O layout em constante mudança da Amazon e as rigorosas medidas anti-bot tornam este caminho desafiante, exigindo atualizações constantes e ajustes finos.

Solução simplificada com a API Amazon Scraper

Para quem procura uma alternativa mais intuitiva e eficiente em termos de tempo, a API Amazon Scraper oferece uma solução à medida:

  • Funcionalidade pré-construída: A API foi especificamente concebida para a Amazon, oferecendo funcionalidades para extrair vários tipos de páginas com facilidade.
  • Cobertura abrangente: Com a capacidade de aceder a dados em inúmeras localizações globais, a API é versátil e de grande alcance.
  • Facilidade de utilização: Esqueça as complexidades da codificação manual; a API devolve dados prontos a utilizar num prático formato JSON.

A API Amazon Scraper representa um ponto de entrada acessível para a extração de dados da Amazon, especialmente para indivíduos ou organizações que não dispõem dos recursos técnicos ou do tempo para desenvolver e manter um scraper personalizado.

Quer opte por escrever o seu próprio código com Requests e Beautiful Soup ou opte pela API Amazon Scraper especializada, a sua decisão deve estar em consonância com as suas competências, recursos, objetivos e conformidade com as diretrizes legais e éticas.

  • Para utilizadores com conhecimentos técnicos que apreciam um desafio, a codificação de um scraper personalizado oferece controlo e personalização.
  • Para aqueles que priorizam a eficiência, a acessibilidade e a conformidade, a API Amazon Scraper fornece uma solução pronta a usar que simplifica o processo.

Ambos os caminhos podem conduzir a insights valiosos, mas a sua escolha terá um impacto significativo na jornada. Compreender os pontos fortes e as limitações de cada abordagem irá ajudá-lo a tomar uma decisão informada que melhor se adapte às suas necessidades.

Perguntas frequentes

A Amazon permite o scraping?

O scraping de informações publicamente disponíveis na Amazon geralmente não é considerado ilegal, mas deve estar em conformidade com os Termos de Serviço (ToS) da Amazon. No entanto, esta é uma área jurídica complexa. Antes de prosseguir, consulte profissionais jurídicos especializados nesta área para garantir que as suas atividades específicas de scraping são legais.

O scraping pode ser detetado?

Sim, o scraping pode, de facto, ser detetado. Muitos sites, incluindo a Amazon, utilizam software anti-bot que analisa vários fatores, tais como o seu endereço IP, parâmetros do navegador e agentes de utilizador. Se for detetada atividade suspeita, o site poderá apresentar um desafio CAPTCHA, e a deteção contínua poderá levar ao bloqueio do seu IP.

A Amazon bloqueia endereços IP?

Sim, a Amazon pode banir ou bloquear temporariamente um endereço IP se o identificar como suspeito ou em violação das suas medidas anti-bot. É uma parte essencial dos seus protocolos de segurança para proteger a integridade da plataforma.

Como posso contornar o CAPTCHA ao fazer scraping na Amazon?

Contornar CAPTCHAs é um dos obstáculos significativos na extração de dados, sendo preferível evitá-los completamente. Veja como pode minimizar os encontros:

  • Utilize proxies fiáveis e alterne constantemente os seus endereços IP.
  • Introduza atrasos aleatórios entre os pedidos para imitar o comportamento humano.
  • Certifique-se de que os seus parâmetros de impressão digital são consistentes.

Vale a pena notar que o tratamento do CAPTCHA pode exigir considerações éticas, sendo aconselhável seguir as melhores práticas.

Como posso rastrear a Amazon?

A complexa estrutura da Amazon pode ser navegada utilizando ferramentas especializadas de scraping. Embora possa utilizar ferramentas gratuitas de scraping e rastreamento da Web, como o Scrapy, estas podem exigir um esforço substancial para configurar e manter.

Para uma solução mais simples e eficiente, pode considerar a utilização de um serviço dedicado, como a Amazon Scraper API. Estas ferramentas são concebidas especificamente para lidar com as complexidades da Amazon e podem simplificar significativamente o processo de rastreamento.

Sobre o autor
Raluca Penciuc, Desenvolvedor Full-Stack @ WebScrapingAPI
Raluca PenciucDesenvolvedor Full-Stack

Raluca Penciuc é programadora Full Stack na WebScrapingAPI, onde desenvolve scrapers, aperfeiçoa estratégias de evasão e procura formas fiáveis de reduzir a deteção nos sites-alvo.

Comece a construir

Pronto para expandir a sua recolha de dados?

Junte-se a mais de 2.000 empresas que utilizam a WebScrapingAPI para extrair dados da Web à escala empresarial, sem quaisquer custos de infraestrutura.