Actualización 01-08-07: Google elimina los resultados suplementarios.
Una de las peores cosas que puede pasarle al contenido de un web es que Google lo indexe como resultado suplementario o resultado complementario. Esto significa, básicamente, que ese contenido es de mala calidad, con poco peso y que no aparecerá en los resultados del buscador, no te traerá tráfico y no lo tendrá en cuenta.
Los resultados suplementarios son más habituales en blogs que en sitios webs, simplemente por la forma de clasificar el contenido, aunque los factores son diversos. En este artículo vamos a ver qué es el contenido complementario, qué es un resultado complementario, cómo encontrar esos resultados complementarios y qué hacer para evitarlo.
Qué son los resultados suplementarios
Google tiene dos índices en los que clasifica el contenido para mostrarlo en su buscador:
- El índice principal que es el que muestra los resultados de su buscador al hacer una búsqueda.
- El índice suplementario – que es donde mete el contenido de baja calidad en vez de no indexarlo.
Según Google, un resultado suplementario es un resultado normal y corriente pero que en vez de estar incluido en el index normal está incluido en el index complementario. Los sitios que rastreamos para este índice complementario están sujetos a menos restricciones que los sitios destinados a nuestro índice principal.
Esto viene a significar que para ser indexado en el índice principal primero hay que pasar una especie de control de calidad, y si no se supera se indexa en el índice complementario.
Los resultados suplementarios aparecen normalmente debajo de un resultado principal con un margen y con la etiqueta [resultado complementario], como se puede ver en la imagen:

Causas de los resultados suplementarios
Las causas que provocan que un contenido se indexe como suplementario son:
- Contenido duplicado – El contenido duplicado es una lacra para cualquier web. (Actualización sobre el contenido duplicado)
- Título y metatags – Cada artículo o página individual tiene el mismo título o muy similar, la misma descripción (meta description) y las mismas palabras claves (meta keywords).
- Backlinks – Las páginas tienen pocos enlaces externos o back links.
- URLs – Páginas con demasiados parámetros en la URL (como por ejemplo las páginas dinámicas)
- Poco texto – Entradas individuales con muy poco texto.
- Enlaces hacia el exterior – Páginas que enlazan a otras páginas penalizadas por Google.
- Páginas huerfanas – Son páginas a las que no enlaza ninguna otra página.
El punto más importante es el contenido no original y el contenido duplicado. Por eso, los feeds, las categorías y los archivos por meses casi siempre aparecen como resultados suplementarios, ya que es contenido duplicado. Este tipo de cosas hay que corregirlas, como explicaré más abajo.
Cómo encontrar los resultados suplementarios de tu sitio
Actualización 30-07-07: Nuevos comandos de Google para comprobar los resultados suplementarios.
Si nunca has mirado los resultados suplementarios de tu web es posible que te lleves una sorpresa al comprobarlo pro primera vez. Ten en cuenta que éste punto es uno de los más importantes a la hora del posicionamiento en buscadores, y que hay que estar comprobando cada vez que se publica algo.
Para comprobar los resultados suplementarios de tu sitio, ve a Google y en el buscador escribe lo siguiente:
site:www.tudominio.com ***
Aunque para ser más exactos, también puedes probar a añadir después de los asteriscos alguna palabra que no exista, como por ejemplo:
site:www.tudominio.com *** -ferawfawef
Es normal que cualquier sitio tenga resultados suplementarios, es más, yo diría que hasta inevitable. Lo importante es que no sea excesivo. Se puede controlar el ratio en los resultados suplementarios, es decir, el porcentaje que tienes de resultados suplementarios, con un sencillo cociente:
site:www.tudominio.com *** -ferawfawef / site:www.tudominio.com
Por ejemplo, en este momento, las páginas indexadas de Adseok son 114, y los resultados suplementarios 26, lo que hace un ratio: 0.23, es decir, un 23 % de mis resultados son suplementarios. La cifra no está demasiado mal, aunque se pueda mejorar, pero de todas formas tiene poco contenido todavía.
Qué hacer para eliminar los resultados suplementarios de tu web
Todos los esfuerzos se van a centrar en evitar el contenido duplicado y en hacerle más facil las cosas al robot de Google. No hay una sola manera de hacer esto, se pueden usar plugins, archivos robot.txt, etc. Lo importante es hacerlo.
- Evitar el contenido duplicado – Básicamente se trata de eliminar indexación de las categotías, los feeds y los archivos. Si tienes dos artículos parecidos, elimina uno o cámbiale el título y los metatags.
Dejar fuera de las arañas de Google los puntos anteriores no le parece bien a todo el mundo. Además, hay algunas fórmulas para evitar el contenido duplicado y aún así dejar los feed, etc. a disposición del boot de Google.
Varias formas de hacerse:
- Mediante el robot.txt – Crea un robot.txt o añadele éste código:
User-agent: *
Disallow: /wp-
Disallow: /search
Disallow: /?s=
Disallow: /feed
Disallow: /comments/feed
Allow: /feed/$
Disallow: /*/feed/$
Disallow: /*/feed/rss/$
Disallow: /*/trackback/$
Disallow: /*/*/feed/$
Disallow: /*/*/feed/rss/$
Disallow: /*/*/trackback/$
Disallow: /*/*/*/feed/$
Disallow: /*/*/*/feed/rss/$
Disallow: /*/*/*/trackback/$Si prefieres descargarte el robots.txt para wordpress optimizado para SEO.
Como puedes comprobar, le dice al robot de Google que no indexte los feed, trackbacks, feeds de los comentarios, las urls con parámetros y las carpetas de administración en el caso de WordPress. También deja abierto el feed para permitir al boot de google blog search indexar las entradas.
Este sistema NO indexa estas urls, lo que para algunos no es del todo recomendable. Lo mejor es que lo pruebes y si ves un aumento de las visitas, adelante. Si no, prueba el paso siguiente.
- Mediante código o plugins (WordPress) – Si no quieres usar el robot.txt puedes probar a poner este código en el header de tu blog:
<?php if(is_single() || is_page() || is_home()) { ?>
<meta name=»googlebot» content=»index,noarchive,follow,noodp» />
<meta name=»robots» content=»all,index,follow» />
<meta name=»msnbot» content=»all,index,follow» />
<?php } else { ?>
<meta name=»googlebot» content=»noindex,noarchive,follow,noodp» />
<meta name=»robots» content=»noindex,follow» />
<meta name=»msnbot» content=»noindex,follow» /><?php }?>
De esta forma conseguirás lo mismo. También se pueden usar ambos para mayor seguridad. Además hay algunos plugins a tener en cuenta. Hay algunos otros, así que prueba el que mejor te vaya, por ejemplo: Duplicate Content Cure o el All in One SEO Pack.
- Mediante el robot.txt – Crea un robot.txt o añadele éste código:
- Añade un Sitempa XML – Añade al index de tus sitio un sitemap XML. Este archico facilita bastante la indexación de las nuevas URLs al robot de Google. Además puedes añadir manualmente URLs o directorios importantes. De esta forma es posible que tengas menos resultados complementarios.
- Títulos y metatags – Ya hemos comentado este punto. Títulos únicos y descripciones y keywords únicos para cada artículo.
- Cámbia el título del blog – Es cuestión de gustos, pero si todas las páginas empiezan por la misma palabra – el título del blog – es más probable que Google las considere como resultados complementarios. Elimina de la etiqueta Title el nombre de tu blog, o si quieres que aparezca por eso de la marca, ponlo después de título.
- URLs cortas y amigables – Las urls cortas y sin parámetros.
- Cabeceras 404 – Las páginas de error 404 redireccionan la página y Google las interpreta como URL verdaderas (200s). De esta forma indexa varias URLs distintas con el mismo contenido de la página de error 404. Desabilita esta URL para los robots.
Crea un registro para todos los errores 404. De esta forma puedes arreglar manualmente estas URLs.
- Conseguir backlinks – Como siempre, ésta es la clave de cualquier posicinamiento. Si no eres capaz de conseguirlos para determinada página, puedes probar a enlazarla tú mismo desde una nuevas entrada. A veces funciona, como he comprobado personalmente varias veces.
Consejos a seguir con los resultados suplementarios
Cada webmaster tendrá sus propias herramientas para controlar los resultados complementarios, pero algunas cosas que se pueden hacer son:
- Si has escrito un contenido que quieres posicionar, cuando el boot de Google lo visite comprueba que no lo indexe en su índide suplementario.
- Cada cierto tiempo haz cambios. Modifica el robots.txt, prueba nuevos plugins, etc. y estudia los resultados. De esta forma deberíamos encontrar la fórmula que mejor funcione para nuestro sitio.
Que bueno el artículo! muy completo, saludos
Gracias juanguis!
Yo trato de no usar los mismos title pero ahora que lo pienso voy a tratar de introducir variaciones en las KEYWORDS y DESCRIPTION tambien :)
Hola Adseok. Muy interesante tu blog. Sólo quería aclarar que, según Robotstxt.org, los asteriscos no son permitidos en en el campo Disallow y los robots ignorarían esa linea.
Así mismo, Disallow: /tmp/*» o «Disallow: *.gif» no serían válidos.
Saludos
Juan
Buenas Juan, gracias por la aclaración. En los casos anteriores los asteriscos hacen la función de directorios y subdirectorios, no de los archivos en sí mismos.
Un saludo.
Adseok, investigué un poco más y supe que el * es permitido por Googlebot pero no es standard. Igualmente el uso de Allow que tampoco es standard pero Googlebot lo entiende.
Así que no sé si funcionarán en otros bots, como los de Altavista, Yahoo, Ask, etc.
Donde me quedó todo más claro fuen la entrada de Wikipedia sobre Robots.txt
Saludos
La entrada de la Wikipedia es la siguiente para quien quiera profundizar:
robot.txt
Gracias Juan por la información.
Saludos.
Muy interesante el artículo de lo resultados sumplementarios en Google.
Debería de recomendarse como un «must read» para los blogers hispanos que usen WordPress y similares.
Lo recomendaré en mis blogs.
Saludos.
—
Eduardo Croissier
Posicionando .NET Blog
Yo ando con problemas con el indexado de mi directorio web…. no comprendo porque se tarda tanto (en principio puse un robots.txt y existe un sitemap.xml validado) …. y ahora porque indexa tan pocas paginas y como puede ser que algunas salgan como «resultados omitidos» por «ser muy similares» cuando se que NO es asi.
Si hago site:www.betadir.com veo que aparece pocas paginas y entre los omitidos una sobre «Filosofia de las ciencias» … pero esta no se parece a ninguna otra pagina! la verdad no comprendo // Pablo
Estoy aprendiendo en esto de los blogs, he leído parte de este artículo y me parece de suma importancia e interesante, veo que esto es un mundo, hay que leer y aprender mucho. Gracias y Salu2.