Los que llevamos ya unos cuantos años navegando por la web recordamos sin ninguna nostalgia los tiempos anteriores a 2011 cuando buscásemos lo que buscásemos siempre teníamos en las primeras posiciones páginas cuyo título nos daba la esperanza de haber encontrado lo que buscábamos pero que sin embargo cuando entrábamos en dicha página sólo encontrábamos texto aleatorio copiado de otras webs, mezclado con banners e imágenes, en muchos casos desagradables, y enlaces a páginas que no tenían nada que ver con lo que buscábamos.

Durante la década de 2000, todos estábamos acostumbrados a que en los resultados de búsqueda apareciesen algunas páginas falsas dedicadas únicamente a mostrar publicidad o tratar de estafarnos. Muchos aprendimos a reconocerlas en seguida y a evitarlas, sin embargo, a finales de la década, la cosa degeneró tanto hasta el punto de que sólo una pequeñísima parte de los resultados de búsqueda eran páginas legítimas.

¿Y cómo pudo suceder algo así?

Por una sencilla razón. Por la aparición del SEO, el descubrimiento de cómo funcionaban los algoritmos de Google a la hora de posicionar, y con el uso cada vez más generalizado de estrategias “tramposas”.

La más popular (y efectiva) de las estrategias para posicionar un negocio en el primer lugar de los resultados de búsqueda era conseguir más enlaces entrantes que la competencia, y si esos enlaces provenían de webs relevantes, mejor que mejor. Por lo que había que hacer dos cosas:

  • Hacer webs relevantes.
  • Añadir enlaces desde esas webs a los negocios que queremos posicionar.

En aquellos tiempos, hacer una web relevante era relativamente fácil. En primer lugar esa web debía tener mucho contenido, y por ende, muchas palabras clave que potencialmente captarían tráfico. Así que algunas personas empezaron a programar robots que se dedicaban a recopilar textos de otras webs, posteriormente reordenaban las palabras o frases de manera aleatoria para que fuese más difícil detectar el contenido copiado y después introducían todo ese texto ininteligible en páginas webs creadas de manera totalmente automática. Luego esas diferentes webs se enlazaban mutuamente entre sí de manera también aleatoria. Estas sitios eran conocidos como granjas de enlaces o link farms.

Cuando los buscadores indexaban estas webs, lo que veían eran sitios con mucho contenido muy variado, muy estructurados y con enlaces entrantes y salientes a otras webs igualmente con mucho contenido variado… Obviamente lo que había escrito en ellas era totalmente disparatado y sin ningún sentido, pero como los robots de los buscadores son eso, robots, no se enteraban y pensaban que estaban indexando sitios de interés para los usuarios.

Una vez creado el entramado de webs, era extremadamente fácil posicionar la web que nos interesaba, simplemente añadíamos enlaces al sitio desde todas nuestras webs falsas y en muy poco tiempo se conseguía la primera posición. Este conjunto de técnicas es lo que se conoce como Black Hat SEO

¡Y luego todos empezaron a hacer lo mismo!

Evidentemente en Internet no hay secretos. Si una empresa de SEO descubre un truco para posicionar a sus clientes en primera posición es cuestión de muy poco tiempo que se sepa y se copie por parte de las otras empresas. No es normal que Instalaciones Eléctricas Martínez e Hijos esté por delante de General Electric, esto puso la mosca detrás de la oreja a la competencia que empezó a investigar y no tardó en dar con el truco. En poco tiempo todos empezaron a hacer lo mismo y la Internet se convirtió en un gran vertedero de palabras aleatorias sin sentido y páginas no interesantes posicionadas en los primeros puestos de los resultados de búsqueda.

Entonces en 2011 llegó Panda para poner orden

Sobre todo había necesidad de dos cosas:

  • Limpiar de porquería la red para mejorar la experiencia del usuario
  • Corregir los resultados de búsqueda distorsionados por el abuso de técnicas ilegales de posicionamiento

Para conseguir este propósito se adoptaron varias estrategias:

  • La más drástica fue sancionar no sólo a las webs falsas con contenido copiado sino también a las webs receptoras de enlaces desde aquellos sitios.
  • Se redujo la importancia de los enlaces entrantes a la hora de asignar relevancia a un sitio web.
  • Se empezaron a tener en cuenta otros factores para determinar la calidad de una web, como por ejemplo el tiempo que se pasa en ella, si nada más entrar uno se va porque no es lo que buscaba (el porcentaje de rebote), las faltas de ortografía (una mala escritura es síntoma de baja calidad), la vinculación del sitio con las redes sociales y comportamiento de sus seguidores.

Desde entonces Google Panda ha tenido actualizaciones periódicas para refinar sus criterios de detección de contenido de baja calidad o añadir nuevos. La última, la versión 4.2, ha tenido lugar en Julio de 2015 y se aplicará de manera progresiva a lo largo de los próximos meses por lo que habrá un nuevo baile de posiciones en los resultados de búsqueda, seguramente con alguna que otra sorpresa.

¿Debemos tener miedo a ser penalizados por Google Panda?

Si tenemos la conciencia tranquila respecto a nuestra web no debemos tener miedo. La clave es la naturalidad. Si tenemos un buen contenido de calidad, nuestra web es útil, está adaptada a dispositivos móviles y no hemos hecho nada raro, no sólo no debemos tener miedo a Panda sino agradecerle que penalice a los tramposos ya que nuestra buena conducta será sin duda recompensada con el tiempo.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies
/* Estilos para menú plegable móvil Divi */ /* JS para menú plegable móvil Divi */