El contenido duplicado en la era Panda

El contenido duplicado siempre ha sido uno de los pilares del SEO, un error que Google siempre ha penalizado – o intentado penalizar – unas veces con más éxito que otras. Y no siempre con buenos resultados, incluso hoy en día. Personalmente he conocido muchos casos frustrantes para los webmasters, que nada podían hacer por demostrar a Google que su contenido era el original mientras veían cómo scrapers y otras webs copiaban letra por letra sus contenidos y posicionaban siempre por encima.

Por otra parte, el contenido duplicado ha hecho casi más daño dentro de una misma web que fuera. El contenido repetido dentro del mismo dominio siempre ha sido uno de los primeros puntos a mirar por el SEO. Contenido repetido en artículos, categoría, secciones, comentarios, urls sin canonicalizar, con parámetros, han diluido vía pagerank el potencial de un artículo.

Mientras hasta ahora hemos tenido herramientas para solucionar estos problemas de contenido duplicado, bien dentro de la misma web como fuera de ella con el plagio, siempre se ha dejado algo a que Google no se equivocara y decidiera que nuestro contenido era el original.

Panda y el contenido duplicado

¿Qué efecto tiene Panda sobre el contenido duplicado? A primera vista, parece que Panda es por fin realmente efectivo – para penalizar – con el contenido duplicado. Las granjas de contenido, la base de Panda, no son sino enormes bases de datos y urls de contenido duplicado. Panda parece que por fin quiere arreglar este tema.

Parece que existe un “una cantidad determinada de rastreo” (Crawl “Budget”) de una web por parte de Google, que si entra en una web y empieza a rastrear urls y urls del mismo contenido deja de rastrear la web. De la misma forma, también parece que hay un “límite de urls indexadas” (The Indexation “Cap”) de la misma web.

Google ha dicho en más de una ocasión que no existe una penalización por contenido duplicado, pero la “penalización” es colateral: si gastas el rastreo y el index con contenido duplicado, no tendrá sitio el contenido “bueno”.

Con Panda, este daño colateral parece que ha dejado de estar aislado: si tienes contenido duplicado no solo será penalizado el contenido duplicado, sino la web como conjunto y otros contenido que no son duplicados. Panda entiende que el contenido duplicado el global, y no particular.

Desindexación

Por mi experiencia, lo primero que hay que hacer es desindexar el contenido duplicado. No solo eso, hay que desindexar el contenido de baja calidad, el irrelevante o el fuera de tema. Imagínate desindexar el 20% de una web, por ejemplo 200.000 urls de golpe. Esto que parece contraproducente, puede deshacer la penalización de Panda o parar la bajada.

¿Cuál es el problema? Que no siempre se sabe qué es lo que hay que desindexar. Este análisis puede llevar semanas o incluso meses, y aún así no acertar a la primera. Aquí la experiencia y habilidad del SEO es fundamental.

Estructura de enlaces

Otro punto es la propia estructura de enlaces. ¿Cómo decirle al robot de Google que rastree solo lo más importante y que no gaste la cantidad de rastreo designada para mi web en secciones o contenido irrelevante? Solo con una buena estructura de enlaces. No siempre es fácil saber a qué enlazar y cómo dentro de una web para destacar la parte importante.

Evita el contenido duplicado

La conclusión es fácil: evita el contenido duplicado. El hacerlo, no tanto. En Seomoz han hecho un resumen de las herramientas y opciones para tratar con el contenido duplicado, desde redirecciones 301, hasta páginas 404 pasando por la url canonical.

Esto es para cuando sabes ya qué eliminar. Pero lo realmente difícil es saber qué eliminar en muchos casos, sobre todo cuando tratamos con webs con millones de urls, tiendas web, etc.

Y para acabar, con Panda no podemos descansar nunca. Es decir, que siempre tendremos que estar al tanto de cada actualización, ya que lo que ahora decide que es contenido de calidad, puede que el mes que viene no lo sea. Haciendo por parte del seo un seguimiento de estos cambios es fácil saber qué cambiar con cada actualización de Panda para no quedar penalizados. Ya no vale con hacer algo que funciona y dejarlo ahí durante años. Ya no solo debemos preocuparnos de la competencia, sino de los propios criterios de calidad y relevancia de Google Panda.

14 opiniones en “El contenido duplicado en la era Panda”

  1. Es muy interesante esta información sobre los efectos de Panda en el posicionamiento; particularmente me ha llamado la atención que se quiera limitar el número de URL de un mismo sitio que se indexaran. Desde luego tiene su peligro, ya que limita al creador de páginas, pero tiene sentido.

  2. Este post estuvo interesante una vez más. Trato de no tener contenido repetido pero las categorías y etiquetas hacen paginas que repiten algo de mis posts. Me tocará hacerle una analisis.

    La parte última es importante (como lo mencionan) Nunca se sabe que cambios se harán en el futuro.

  3. Yo que no sé tanto de “las cosas técnicas del blog” le estoy agarrando un temor raro a Panda! :P Pero bueno, si uno hace buen contenido, a la larga esperaremos que Google lo note! jeje
    Es muy bueno el blog, y haces que gente como yo suela entender éstos temas con facilidad! Así que gracias por eso! ;)
    Saludos desde Argentina!

  4. Por más Pandas y más historias en realidad solo hay un punto clave que es el mismo de siempre: backlinks. Incluso si tienes los suficientes puedes pasar por encima de contenidos duplicados y demás contenido teóricamente penalizable.

    Me remito al vergonzoso ejemplo de taringa, que copa las primeras posiciones en multitud de búsquedas y el 99% de su contenido es robado, perdón, copiado de blogs que aparecen en posiciones mucho más bajas. Esto gracias a que tienen una cantidad ingente de backlinks y, pensando mal, por la cantidad de impresiones adsense que generan.

    Imagino que habrán recibido cientos de denuncias en google por este tema pero ahí están y no creo que google los mueva de allí.

  5. Gracias por la informacion que nos ofreces a los no que nos iniciamos sen el mundo del SEO.
    Yo acabo de eliminar todo el contenido duplicado de mi web… a ver como me va.

    un saludo y mil gracias…

  6. Hola, tengo una duda.
    Se que el contenido duplicado penaliza la pagina que publica el contenido.
    Pero penaliza también las webs a donde se señalan con links desde el contenido duplicado?
    Gracias y Saludos,

    Miguel

  7. Lo que estoy haciendo para combatir el panda es básicamente desindexar contenido de mala calidad, escribir nuevamente posts viejos con buenas keywords, escribir con calidad y mantener ciertos aspectos técnicos con buenos ratios.

    La actualización más reciente que no fue anunciada fue bastante poderosa…¿Qué opinan?

  8. Muy interesante el artículo, di con él buscando en google porque tenía esa duda, y has sabido aclarármela perfectamente. Es mejor quitar el contenido duplicado para evitar una penalización global del sitio. Sobre la marcha me pongo manos a la obra.

Deja un comentario

Tu dirección de correo electrónico no será publicada.