Si quisieramos resumir rápidamenrte todos esos términos, podríamos decir que son actualizacions, cambios o retoques del algoritmo de Google que producen cambios en los rankings.
Básicamente hay dos tipos, los que «premian el buen contenido» – sea lo que sea buen contenido – y los que penalizan malas prácticas seo – spam en términos generales -.
Panda y Penguin son los cambios que luchan contra el spam, que son los que están de moda. Google está ahora más pendiente de eliminar los resultados manipulados más que de cualquier otra cosa, es decir, que el seo debe estar ahora más pendiente del seo negativo que de cualquier otra cosa.
Por más que Google haya querido deshacerse del PageRank, sus algoritmos, con Penguin como antepenúltimo nombre visible, siguen dependiendo principalmente de los enlaces. Parece que los enlaces siguen siendo pieza clave del algoritmo, y todo parece indicar que lo seguirán siendo por mucho tiempo.
Un webmaster podría fijarse en los aspectos de calidad de su sitio, como el rebote, el tiempo en página, indicadores sociales, etc. y tratar de mejorarlos, pero en una de estas vendría Panther y le tiraría todo abajo si el algoritmo considerase esta vez que sus enlaces no son los adecuados.
Da la impresión a veces, aunque no sea así, que todos estos cambios y actualizaciones constantes son la estrategia publicitaria de Google para tener ocupados a los bloguers y seos con cosas sobre Google que publicar. Pero lo que sí es seguro, es que cada actualización y nueva capa del algoritmo es muy real y afecta visiblemente a las webs, es decir, que son cambios muy reales.
Ante tantos cambios, nombres, tipos de actualizaciones, etc. puedes dedicar el 90% del tiempo a intentar contentar a Google y el 10% restante a desarrollar la página en sí, o puedes tomártelo de otra forma: mantener a raya la calidad de tu linkbuilding y dedicar la mayor parte del tiempo a construir.
Claro está que eso es lo que quiere Google: que te dediques únicamente a crear contenido, y claro está también que perderás muchas oportunidades de conseguir mucho tráfico. Pero también correrás menos riesgo de ser penalizado y tendrás mucho más tiempo productivo entre manos.
Es algo así como invertir en bolsa comprando un día y vendiendo un mes después cuando las acciones hayan subido algo, o comprar y vender tantas veces como suban o bajen dichas acciones.
Ahora bien, habría que establecer por ejemplo qué periodos de tiempo serían los adecuados para «actualizar» una web a las nuevas exigencias y cambios algorítmicos del buscador, para no quedarse anticuado. ¿Una vez al mes? ¿dos? También habría que establecer algún tipo de calendario de pruebas, por si la web se estuviera perdiendo mucho tráfico por no retocar o corregir algo evidente.
Los análisis concretos son tema para otro post, pero una cosa está clara: si tu web se resiente tras una actualización, es que hay algo que hay que corregir. Pero si no sabes qué es, o si lo que crees que hay que hacer es muy complejo y laborioso, muchas veces es casi mejor no tocar nada, ya que a menudo, de una actualización a otra, las cosas vuelven a su cauce sin hacer nada.
De nuevo y como siempre, todo depende del tiempo y recursos de los que dispongamos. Quizá en un próximo artículo desarrollemos el proceso concreto para un proyecto específico para determinar qué correcciones hacer o si merece la pena o no hacer correcciones. Lo que está claro es que para un seo de vocación, tanto baile es un estímulo inmejorable.
«No tocar nada» cuando que ves que todo tu trabajo ha sido repudiado de la noche a la mañana es complicado, especialmente cuando consideras que existe alguna posibilidad que hayas cometido algún error mientras mejorabas el SEO.
Honestamente, en mi caso, no diría que he realizado un abuso de sobreoptimiación, pero si reconozco un uso excesivo de palabras clave, y por tanto por ahí puedo llegar a entender la penalización.
Lo que me corroe por dentro es ver los sitios de la competencia en mejores posiciones, cuando visiblemente están «literalmente» explotando 4 palabras claves a modo repetitivo y explotando el mismo artículo a base de refritos, es decir, artículos que no aportan nada y que hablan de los mismo.
Dejando de lado a la competencia, personalmente pienso que lo que me ha perjudicado es el tipo de página como «website.informer.com» al duplicar el SEO principal de tu sitio, es decir, el título, descripción y palabras clave.
En este caso pienso que el algoritmo no es capaz de interpretar que una de las dos páginas no legítima, y por tanto puede considerar un tipo de «web espejo», por lo que finalmente eres el perjudicado.
Me baso en esta teoría tras haber realizado búsquedas y comprobar que este tipo de directorios (que copian información de tu sitio) indexan antes que el sitio original.
Estoy de acuerdo con este artículo. De hecho mucha gente pensó que el PageRank estaba desapareciendo por Google Panda, cuando Panda lo único que hacía era premiar los sitios con mejor contenido y perjudicaba los sitios de contenido copiado.
Muchos SEOs creen que con Penguin se han desestabilizado los resultados porque en el top10 aparecen sitios de dudosa calidad, y yo pienso que Penguin precisamente ha funcionado demasiado bien y está mostrando como Google Panda no funcionaba tan bien como pensábamos; porque ambos algoritmos se focalizan en dos cosas distintas y, en teoría, trabajan por separado. Pero hay tantas cosas que sólo las sabe Google…
Sinceramente, creo que muchos sitios penalizados trabajaban un mayor porcentaje en optimización SEO (excesiva, excesivas palabras clave y textos de ancla repetitivos) y no le daban la suficiente importancia a su sitio.
Sobre Panda, Google quiere que los sitios web sean expertos en un tema, porque repetir un contenido ya pierde relevancia. Por ejemplo: «Parece que mañana lloverá en la costa del Cantábrico» es lo mismo que «Podría ser que llueva mañana en el Cantábrico, concretamente en la costa». Es como sacar fotografías de una misma persona pero con diferentes guiños, cuando lo que aporta valor añadido es sacar fotografías de personas diferentes.
Y en lo que respecta a Penguin, el linkbuilding natural ahora tiene que ser más natural todavía. No es lo mismo spamear un foro que participar en él. Del mismo modo que no es lo mismo recibir el 70% enlaces con el mismo texto de ancla que la palabra clave de tu dominio que recibir varias menciones de la marca de tu sitio, enlaces variados… los naturales raramente tienen el mismo texto de ancla. Es algo muy estadísticamente improbable, y Google lo sabe y lo pone en práctica.
Un saludo y ánimos por lo del Athletic. Veo venir que este año nos devolvéis lo de la Copa del Rey de hace 3 años, jeje!
Gracias Gerard, aunque merecido, ha sido duro. Con los catalanes que hay por aquí bromeamos diciendoles que vais a pagar los platos rotos, aunque como juguemos como el otro día igual nos caen 10.
@cesar; si la caída ha sido muy grande, hasta el 90% en algunos casos, es evidente que no se puede esperar a ver si se recupera. Las correcciones deberían llegar cuanto antes.
Interesante artículo.
Estado siguiendo muy de cerca los efectos de estos cambios en el algoritmos de Google (Buscador donde se dan más de las 80% de búsqueda en el Internet).
Coincido en que debe haber contenido de calidad. No me considero un SEO pero tengo mis bases y con ellos he logrado indexar y posicionar bien algunas páginas de mis clientes, pero con estos cambios estremecen y te preguntas ¿y ahora que? y sobre todo para páginas que se traban en plataformas auto administrables, que requieren de una optimización diferente.
Hay que esperar por que en mi humilde opinión, Google tendrá que hacer algún correctivo en este ultimo cambio y buscar un nivel en las cosas (Facebook lo ha hecho).
Yo estoy en contra del spam o «sombrero negro» lo que respecta a SEO y me gusta hacer las cosas a lo legal y a lo profesional.
Luis Alfonso Córdoba
Diseñador Web
Yo la verdad sigo haciendo lo mismo… principalmente construir buen contenido, segundo emplear el mismo tiempo al SEO, a potenciar los perfiles de las redes sociales y aumentar la lista de contactos. Día a día aumento las visitas cada vez que cuelgo un nuevo artículo y las visitas de Google nunca bajan.
Saludos
Hola, interesante la opinión sobre que Penguin y Panda intentan buscar un mejor contenido y menor sobreoptimización sobretodo de anchors en enlaces externos. Yo os recomiendo buscar en google.es «viagra» sin comillas y echar un ojo a los resultados 7,8,9.
Para una keyword tan dura como esa, posicionan páginas que no tienen nada que ver, ni una sola cantidad de contenido en algunas de esas páginas tiene que ver con viagra. Si os fijais solamente están entre los 10 primeros por una muy pero muy fuerte cantidad de backlinks con anchor texts exactos. En OpenSiteExplorer veo para algunos cantidades de hasta más de 400 dominios diferentes enviando links con el anchor «viagra».
Lo que siento es que por lo menos en español google en ciertos casos puede ignorar totalmente en contenido y rankear una página entre las 10 primeras tan sólo por su perfil de backlinks (siendo incluso tan poco natural como esos que os dije). Espero vuestra opinión. Si os interesa, en mi blog hay un post con los datos exactos que encontré sobre ese SERP
Buen dato, me gusta leer varios puntos de vista y tomar mis propias conclusiones.
A mi me va bien con dos cosas: 1. Contenido fresco (2 o 3) artículos por semana 2. Con enlaces de páginas muy ANTIGUAS. Mi ranking en alexa esta en 50.000 y me entra buen trafico.
Creo que hay que buscar constantemente que cada visitante tenga una buena experiencia y creo que poner +1 es fundamental para que Google mida esa experiencia. Gracias por tu articulo
Lo que quiere Google con estos cambios es que se produzcan vuelcos, y en lo que tardan las empresas en adaptarse, que inviertan en SEM.