Google podría comprobar a mano todos los dominios en busca de spam

El otro día comentaba al final de este artículo sobre los agujeros negros de internet que a cuenta de la lucha contra el spam estaban empeorando algunas cosas en la red.

Es curioso que a alguien se le haya ocurrido la mejor forma de luchar contra el spam sin perjudicar a nadie: que google u otro buscador comprueben a mano dominio por dominio, cosa que parece viable por una gran empresa como Google o Microsoft:

  • Existen 78 millones de dominios en internet
  • Si cada empleado puede comprobar mil dominios al día y pones a trabajar en esto a mil personas, tardarían menos de tres meses en comprobar todos los dominios.
  • Mil empleados son el 10% de los trabajadores de Google y el 2% de los de Microsoft
  • Todo esto sin hacer filtros de ningún tipo, por lo que todo se podría reducir mucho más.

¿Podría Google comprobar a mano todos los dominios de internet? Parece que sí, por capacidad, por viabilidad y por experiencia, ya que además tienen muchos probadores – testers en todos los idiomas del mundo cuidadosamente entrenados para comprobar la calidad de los resultados en diversas formas.

¿Por qué no lo hace? Se me ocurren muchos motivos por los que ésto no es útil, pero la principal es un argumento que han comunicado ellos mismo muchas veces, y es que “quieren todo el proceso automatizado con la menor intervención manual posible”. ¿Podría ser éste un ejemplo similar al de los millones de dólares invertidos por la NASA para encontrar un boli que pintase en el espacio frente al lápiz de los rusos? No, no lo creo realmente, pero como curiosidad no está mal.

7 opiniones en “Google podría comprobar a mano todos los dominios en busca de spam”

  1. 1000 dominios al dia???
    Eso serian 125 a la hora.. y mas o menos uno cada 30 segundos!!
    No creo que en 30 segundos de tiempo a comprobar un dominio..ni que sea una tarea demasiado agradable ni fiable.

  2. Contando que los chinos e hindues están fusilando captchas a razón de 2$ cada 1000… se podría externalizar el trabajo ;-) ¡outsourcing!. Y aun sería barato.

  3. Siendo la cantidad inicial que sea, si previamente a la revisión manual, se filtra por unos parámetros obvios y básicos, muchas páginas Web de Spam ya quedarán filtradas.
    Hay parámetros básicos que hacen evidente que una Web es Spam.
    Densidad de links (para filtrar granjas de enlaces), links a páginas censuradas, códigos ocultos y Javascript, etc.
    Gran parte de esos millones de páginas se quedarán en esos filtros.

  4. Totalmente de acuerdo con Xavier. Además yo pienso que otro parámetro puede ser la cantidad de páginas generadas. Es posible que tambien filtren a webs que tienen adsense (vamos pienso que les interesa que las webs que tengan adsense tengan algo de calidad y no sean basura de spam).

  5. Si lo pueden automatizar mucho mejor porque un filtrado manual no creo que sea viable, puede parecer una buena oportunidad de quitar el spam pero es que al ritmo que avanza internet rápidamente se quedaría desfasado.

Deja un comentario

Tu dirección de correo electrónico no será publicada.