Lembras-te da fase «selvagem» da Internet, quando cada web designer fazia o que bem entendia e as páginas estavam repletas de cores descoordenadas, escolhas estranhas de interface e imagens distorcidas? Que época fantástica.
Além disso, pensa em como eram esses sites quando os acedias a partir de um telemóvel ou tablet. A navegação não era apenas uma tarefa árdua, era verdadeiramente dolorosa.
Agora tudo está muito mais simplificado, baseado em boas práticas de interface do utilizador e otimizado para todos os tipos de tamanhos de ecrã. Temos de agradecer ao JavaScript por essa última parte. É a linguagem mágica que transforma páginas estáticas e enfadonhas em experiências rápidas e dinâmicas.
Em suma, o JS é excelente quando se está a otimizar um site para humanos. Os bots, por outro lado, não lidam tão bem com ele. Na verdade, os scrapers básicos não conseguem extrair qualquer HTML de sites dinâmicos sem funcionalidades adicionais. Não se preocupe, vamos abordar por que razão isso acontece e como resolver o problema neste artigo.
Um site não precisa de Javascript. Podes safar-te usando apenas HTML e CSS (ou mesmo só HTML, se quiseres aquele toque dos anos 80). Então, por que é que as pessoas dão o passo extra de adicionar JS? Bem, estás prestes a descobrir.




