Google indexa 650 mil páginas/dia na Dark Web

Paulo Brito
18/02/2015

Google indexa 650 mil páginas/dia na Dark WebO professor e pesquisador Virgil Griffith, um norte americano que estudou no California Institute of Technology, construiu um buscador para endereços do tipo “.onion”, ou seja, da dark web, que funciona aproveitando a indexação do Google. Griffith é reconhecido entre os pesquisadores por ter construído uma aplicação chamada “Wikiscanner” que apontava os IPs responsáveis por inserção e alteração de conteúdo na Wikipedia. Assim, foi descoberto que a CIA e outras agências americanas estavam modificando registros para ocultar nomes e outras informações inseridos por cidadãos do mundo inteiro.

Griffith deu estas respostas na lista de discussões do Tor, o navegador anônimo para web e para endereços “.onion”.

Pergunta: Como funciona o Onion City com a busca customizada do Google? De onde ele pega o índice? Você expõe todos os registros tor2web em seu sitemap, e por isso o Google pega todos eles e gera um índice?

Griffith: Correto 🙂 Tudo disponível na Google Custom Search é também disponível em uma pesquisa regular do Google com o qualificador: “site: onion.city”

P: Fico um pouco preocupado com os clientes se conectando diretamente ao Google. É possível evitar isso e ainda manter a funcionalidade de pesquisa personalizada do Google?

Griffith: Infelizmente não. Estou ciente de que não é o melhor. Vejo o Google como um motor de busca temporário, apenas para fazer a bola rolar. Estou aberto à utilização de qualquer
outro índice. Por enquanto, estou muito satisfeito com o desempenho do Google, que já indexou 650 mil páginas onion e o
número cresce a cada dia.

P: Eu não gosto do fato de que o link padrão é através onion.city. Isso significa que onion.city observa tanto a consulta quanto o conteúdo da pesquisa. Isso é louco.

Griffith: É de fato assim. No entanto, você pode evitar que o OnionCity veja a pesquisa usando “site: onion.city” no Google.

P: É especialmente louco se você permitir que seus clientes enviem formulários HTTP pelo onion.city, já que isso permite ver todos os nomes de usuário e senhas. Eu aposto que há muitas pessoas
lá fora que realmente não entendem o modelo de ameaça tor2web, e é acharão desagradável suas senhas serem lidas.

Griffith: Embora tecnicamente possamos ler as senhas fornecidas, não mantemos registros de tráfego passado. No entanto, entendo que muitos usuários não conhecem a ameaça no modelo tor2web. Mas isso é assim em todos os nós Tor2web, não? Isso não é do OnionCity. Até onde eu sei todos os nós Tor2web permitem o envio de formulários.

As respostas estão em

http://permalink.gmane.org/gmane.network.tor.user/35448

Compartilhar: