¿Qué tiene de especial Google? Sin lugar a dudas sus algoritmos.
Simplificándolo mucho, un algoritmo es una fórmula matemática diseñada para solucionar un problema. ¿Qué problema? Darnos la información que estamos buscando. Y no de cualquier manera. Esa información debe ser la mejor, la más completa y amigable para el usuario.
El objetivo de Google siempre ha sido el mismo: ofrecer el mejor resultado posible a una intención de búsqueda concreta.
El algoritmo de Google cambia cada día, y los especialistas en SEO intentamos entender cómo funciona y como podemos influir en él. Hace unos años, las palabras clave lo eran todo, y valía con repetir la misma palabra varias veces (Keyword Stuffing) dentro de un texto… y voilá! Al dia siguiente tu web aparecía en primera posición.
Pero los tiempos han cambiado, y mucho.
En las directrices de Google (el manual de referencia para los webmasters) se especifica claramente que estas prácticas no son bienvenidas.
No recurras a trucos para que el motor de búsqueda mejore la clasificación del sitio.
¡Vaya! Pues esta frase incluye casi todo lo que hacemos los SEO, inclusive lo que está considerado una práctica White Hat. Desde la búsqueda y clasificación de palabras clave (títulos H1, H2, texto…) hasta el etiquetado ALT e inclusive la controvertida compra de enlaces. Pero voy al lío, que me desvío del tema. Vamos a repasar los grandes cambios de algoritmo que ha hecho Google a lo largo de su historia. ¿Te apuntas?
En esta época los SEO’s ya hacían de las suyas a través de la creación masiva de contenido duplicado y enlaces sospechosos. Durante el año 2005 la empresa publica 5 cambios de algoritmo: Allegra, Bourbon, Gilligan, Jagger, y BidDaddy.
Allegra tenía el objetivo de minimizar el impacto de las páginas Spam en sus índices de búsqueda. Seguidamente, Bourbon mejoró la capacidad del motor para detectar contenido duplicado.
Antes de su aparición, si querías posicionar una palabra clave bastaba con repetirla varias veces. Muchas webs basaron su estrategia en esta práctica, y el usuario fue el más perjudicado. ¡Qué fácil hacer SEO! 😉
Un año de pocos cambios, pero relevantes. Google publicó el cambio más radical en sus resultados de búsqueda, introduciendo un sistema llamado Búsqueda Universal. Esta función permitía combinar los listados de sus motores de búsqueda sobre noticias, videos, imágenes, locales y libros.
Al poco tiempo, Buffy entró en juego y permitió realizar búsquedas de una sola palabra. En esa época el mismo Matt Cutts minimizó su importancia ya que apenas modificaba los resultados de búsqueda: “So I’m not sure it’s worth calling it an update.“
Gracias a los cambios anteriores, Google consiguió que los sitios web tuvieran mayor calidad de contenido en todos los sentidos. Además, Caffeine mejoró de manera notable la velocidad de indexación de los contenidos. Esto se traducía en contenido fresco en cuestión de minutos.En esa época, la popularidad de Facebook y Twitter no paraba de aumentar, y la necesidad de poder ofrecer contenido en tiempo real no era opcional. ¡Google se puso las pilas para no quedar atrás!
A principios de Mayo Google publico May Day, una actualización diseñada para corregir los resultados de búsqueda relativos a palabras clave de cola larga (long tail keywords). Este cambio algorítmico disminuyó las posibilidades de que una web clasificara consultas de palabras clave relativamente largas sin mostrar una relevancia y autoridad contextual.
En otras palabras, una página web que publica un contenido donde su título coincide exactamente con una consulta larga, no tiene porque aparecer en los primeros resultados. Solo lo hará si su contenido es de calidad.
Esta actualización dejó fuera de juego grandes sitios web que se lucraban en base a esta práctica.
¿Cómo lo hacían?
El año 2000 el gran buscador lanzó Google Adsense, un sistema de publicidad pagada basada en banners. Desde entonces, muchos sitios fueron creados a medida para traccionar tráfico y conseguir clicks. No importaba el contenido ni la intención de búsqueda del usuario. Lo importante era ganar dinero aprovechando las vulnerabilidades del algoritmo.
Google Panda fue uno de los cambios algorítmicos más conocidos, llegando a afectar un 12% de páginas indexadas en las SERPs de Google. El objetivo de Panda era penalizar las webs repletas de contenido pobre y de baja calidad (thin content) y llenos de publicidad.
A modo de curiosidad, el ingeniero que desarrolló el algoritmo fue Navneet Panda.
El impacto en las redes fue tan brutal que los foros de Google se llenaron de usuarios expresando su malestar por los cambios de posición y consecuente pérdida de tráfico e ingresos. Muchos no se recuperaron y tuvieron que rediseñar el site desde cero.
Los sitios web más conocidos como content-farms o granjas de contenido. Páginas con cantidades brutales de contenido duplicado y llenos de publicad que no ofrecían valor real para el usuario. Muchos de estos sitios utilizaban técnicas tipificadas como ilegales por Google, también conocidas como técnicas Black Hat SEO.
Recordad: Es más importante la calidad que la cantidad de contenido.
Consejo de cultivo propio
Por último, destacar el famoso Freshness Update, una modificación que afectó al 35% del total de búsquedas y basada (como pasó en Caffeine) en proporcionar al usuario los resultados de búsqueda más frescos y recientes. En consecuencia, muchos SEO integran en sus publicaciones el año actual y renuevan regularmente sus mejores artículos. Unos cambios que sin duda benefician enormemente al lector 😉
El pinguino fue un algoritmo totalmente nuevo publicado en Abril de 2012 y que seguiría recibiendo updates hasta 2016. Como siempre, el objetivo de Google seguía siendo ofrecer los mejores (y mas relevantes) resultados de búsqueda y para eso, debían acabar con los sitios repletos de spam.
Google Penguin penaliza los sites llenos de enlaces manipulados y de baja calidad.
¡Un detalle importante! Desde octubre de 2016 Penguin actúa en tiempo real, y por lo tanto, es altamente recomendable no realizar prácticas de esta índole. No te arriesgues a pasar el filtro, porque tarde o temprano te penalizarán y puedes (literalmente) ser expulsado de las SERPs de Google.
De hecho, Matt Cutts recomienda no optimizar los textos para SEO para evitar así el contenido antinatural. ¿Has leído alguna vez un texto que parece haber sido escrito por un robot? ¡Evítalo! 😉“We want people doing white hat search engine optimization (or even no search engine optimization at all) to be free to focus on creating amazing, compelling web sites. As always, we’ll keep our ears open for feedback on ways to iterate and improve our ranking algorithms toward that goal.”
Es una práctica habitual y es necesario recordar que incumple las directrices de Google. Los enlaces están diseñados para recomendar de forma natural un sitio gracias a su contenido de calidad. Cada vez existen más plataformas dedicadas a este mercado, y tarde o temprano se descubrirá el pastel.
La compra de enlaces elimina este principio basado en la confianza, y tanto comprador (enlace entrante) como vendedor (enlace saliente) pueden ser penalizados. Pongamos un ejemplo muy básico…
¿Por qué la página X está mejor posicionada en Google que la mía, si su contenido es peor y hablamos de lo mismo?
Sin entrar en los factores SEO On Page, posiblemente porqué su presupuesto en compra de enlaces sea más elevado que el tuyo. ¿Es justo? No, y es lo que Google quiere evitar. Desde mi humilde opinión, creo firmemente que en poco tiempo veremos grandes ajustes en este sentido.
La tipología de anchor text (texto ancla) y la densidad de palabras clave (sobreoptimización) también son un factor relevante. Las webs más enlazadas mediante keywords de tipo transaccional o destinadas a la compra-venta de productos están en el punto de mira de Penguin.Un factor también muy relevante es la cantidad de enlaces entrantes. Si un dominio recibe 100 enlaces en un corto periodo de tiempo, es un síntoma de un linkbuilding fraudulento.
Por último, el origen y la calidad de los enlaces también es analizado por Google Penguin. Si un site basa toda su estrategia en enlaces de baja calidad procedentes de comentarios en blogs, pies de página, granjas de enlaces o sitios penalizados por spam… No durará mucho 😉
La actualización aplciada en agosto de 2013 afecto las búsquedas semánticas realizadas desde móviles y muy orientada al Knowledge Graph (Gráfica del conocimiento). Es un update de los grandes, llegando a afectar al 90% de los resultados de búsqueda.
Hummingbird (Colibrí) fue decisivo para que actualmente podamos disfrutar de las búsquedas por voz (Siri de Apple, Google Now o Alexa). El update está centrado en obtener resultados teniendo en cuenta el contexto de los términos de búsqueda. Es decir, cruza diferentes bases de datos para ofrecer un resultado muy preciso.
Hoy día las búsquedas son mucho más que simples palabras clave. Google tiene en cuenta el contexto de la búsqueda referente a personas, fechas, objetos, lugares, etc. Las búsquedas mediante comandos de voz son cada vez más habituales y Google necesita dar respuesta dar respuesta a esa necesidad. Veamos un ejemplo práctico…
Preguntamos a Google “¿Qué edad tiene Clint Eastwood?”
Antes del cambio de algoritmo, nos hubiera salido la Wikipedia en posición 1. Accederíamos a la página y leeríamos el dato. En cambio ahora…
¿Afecta esta funcionalidad al SEO? Mucho no, muchísimo.
Una página que esté situada en Top 1 por una consulta muy concreta, quedará invisible y el usuario nunca llegará a hacer click. ¡Google ya le habrá dado la respuesta! Ya sea mediante imagen (como el ejemplo) o a través de voz. Un nuevo paradigma que obligará a los SEO’s a mover ficha más temprano que tarde…
En julio de 2014 se publica Google Pigeon (Paloma) con el objetivo de mejorar los resultados locales a través de la aplicación Google Maps, aunque también afecta a las búsquedas orgánicas. No existe demasiada información acerca de esta actualización, pero su objetivo es priorizar los resultados locales (SEO local) cuando es preciso.
También se hizo público el HTTP / SSL Update que tomaría en consideración como factor de posicionamiento aquellas páginas web que tuvieran un certificado de encriptación SSL habilitado. Este sistema garantiza que los datos que viajan entre el navegador y el servidor están cifrados mediante una clave de 256 bits.
Además, al navegador Google Chrome empezó a marcar desde 2017 como “No seguro” todos los sites que no tuvieran el certificado SSL. Si tienes una tiendas online (e-commerce) debes tener este certificado instalado o estarás poniendo en riesgo los datos personales y bancarios de tus compradores.
Si tu web es http:// y no https:// debes instalar el certificado SSL.
Google reacciona ante la creciente tendencia de búsqueda mediante móviles.
En mes de abril el buscador aplica Mobile Friendly, una actualización que premia con una mejora de rankings aquellos sitios web con diseño responsive. Es decir, que fueran accesibles y funcionales desde dispositivos móviles. Inicialmente la actualización no afectaba a dispositivos más grandes como tablets y fablets.
A partir de esta actualización (también llamado Mobilegeddon) vinieron muchos más cambios como el AMP (Accelerated Mobile Pages) y la preocupación por la velocidad de carga de un sitio web.
El concepto mobile first es actualmente una obligación. Es decir, el diseño de un sitio web se articula pensando primero en la navegación móvil, y luego, se amplia a otros formatos más tradicionales como el portátil o PC/Mac de sobremesa.
Confirmado por Google a finales de 2015, RankBrain es el primer algoritmo de Google basado en inteligencia artificial o también llamado machine learning. Se empezó a desvelar más información a partir de 2016 y está integrado dentro del algoritmo Hummingbird.
Gracias a este algoritmo, la manipulación voluntaria (mediante técnicas SEO) sobre los resultados en las SERP’s es cada vez menos efectivo. Como siempre, el mejor contenido será quién aparezca en Top 1.
Junto al contenido y a los enlaces, RankBrain es también uno de los factores más relevantes del algoritmo de Google. ¡Casi nada!
¿Qué tiene de especial RankBrain? Si un usuario busca un término no conocido por Google, el algoritmo es capaz de adivinar qué conceptos están relacionados o son similares. De esta manera, el mejor buscador del mundo puede ofrecer un resultado sobre temas “aparentemente desconocidos”.
Las entidades (ya hablaremos más de ellas) son pequeños mapas temáticos basados en conjuntos de palabras clave. Por ejemplo, existen plugins para Chrome que permiten extraer entidades de páginas web, tal y como podéis ver en la imagen superior.
Lanzado en marzo de 2017 de manera no oficial y diseñado para penalizar aquellas páginas con exceso de publicidad y con contenido no pensado para el usuario. En este caos, los más sufridos fueron los sites que lucían un exceo de publicidad en forma de enlaces de afiliación, Google Adsense y estrategias de linkbuilding de baja calidad (por ejemplo, un mismo dominio con multitud de enlaces salientes).
Todos hemos navegado por sitios plagados de publicidad con menús falsos, banners que parecen botones, textos camuflados, y un largo etcétera. La ira te invade y solo puedes desear lo peor a quién ha diseñado ese sitio ?
¿Quieres más información sobre Fred? Te recomiendo visitar este post del Blog del SEO.
A través de este repaso histórico hemos podido ver como las malas prácticas son penalizadas de forma drástica y lo que pueden llegar a significar. Muchos sites que captaban tráfico masivamente mediante técnicas Black Hat, contenido fraudulento, enlaces de mala calidad, keyword stuffing, y muchas otras prácticas… han sido penalizados.
Las modificaciones algorítmicas están diseñadas para beneficiar al usuario.
Ni más, ni menos. Son adaptaciones que debe hacer Google ante la mala praxis de muchos webmasters y de la propia evolución que dicta internet. Ante una situación de esta índole, solo podemos seguir las directrices oficiales de Google y tendremos un proyecto sano y duradero. Recuerda:
Céntrate en ofrecer la mejor experiencia posible al usuario. ¿Cómo hacerlo?
¿Tienes algo más que aportar? No dudes en enviarme un mensaje.