Google sobre el contenido duplicado de scrapers

Google nos ofrece más información sobre el contenido duplicado, en esta ocasión debido a los scrapers (páginas que roban el contenido exacto de otras webs a través del feed generalmente). Ya nos habló sobre el contenido duplicado en general y del contenido duplicado por URL.

Google demuestra así que es consciente del problema que supone para los webmasters los scrapers que además de robar contenido, crean páginas idénticas y por lo tanto, contenido duplicado, algo contra lo que Google lucha desesperadamente.

Algunas cosas que dice al respecto son:

  • En la mayoría de las ocasiones, el webmaster no tiene control sobre scrapers que distribuyen su contenido sin su consentimiento. Nos damos cuenta de que no es culpa del webmaster, y además publicar varias veces el mismo contenido no viola los términos de la guía para webmasters. Google es casi siempre bueno detectando la fuente del contenido y las copias, por lo que los scrapers no afectan al posicionamiento de las páginas con el contenido original.
  • cuando encontramos contenido duplicado en diferentes páginas, miramos varias señales para determinar cuál es el contenido original. Esto significa que no deberíamos estar nada preocupados si notamos que varios scrapers nos roban el contenido.
  • En el caso de que dispongas de feed y quieras que los lectores del scraper identifiquen el contenido como tuyo, puedes poner un enlace a tu web en el feed. (Ya comentamos algunas formas de aprovechar el robo de contenido y el mismo google recomienda estos consejos de Vanesa Fox.

En el caso de que el scraper posicione mejor que tu contenido original, algo no habitual pero que puede pasar, google recomienda comprobar tres puntos:

  • Comprobar que tu contenido es todavía accesible para los robots de Google. Puedes haber bloqueado intencionadamente el acceso a través de robots.txt (he visto casos increíbles, por lo que no es tan poco habitual).
  • Puedes mirar en tu Sitemap si has realizado algún cambio en el contenido que previamente había indexado un scraper (esto es el colmo, no poder actualizar el contenido porque quizá lo empeores para Google).
  • comprueba si tu sitio cumple las normas de uso de Google.

Recalcar que en la gran mayoría de los casos, el contenido duplicado en diferentes webs (subrayado “diferentes webs”) no afecta al contenido original. Por lo tanto el peligro es que Google no considere que el tuyo sea el original. Solo cuando el contenido duplicado se haga de forma maliciosa se considerará que incumple las condiciones de uso.

3 opiniones en “Google sobre el contenido duplicado de scrapers”

  1. No comprendo por qué google se complica la vida con estas cosas de duplicidad, uno mismo como webmaster puede tener más de una direccion hacia su misma página y eso podría ser confundido por google.

Deja un comentario

Tu dirección de correo electrónico no será publicada.