Els que portem ja uns quants anys navegant per la web recordem sense cap nostàlgia els temps anteriors a 2011 quan busquéssim el que busquéssim sempre teníem en les primeres posicions pàgines el títol de les quals ens donava l’esperança d’haver-hi trobat el que buscàvem però que no obstant això quan entràvem en aquesta pàgina només trobàvem text aleatori copiat d’altres webs, barrejat amb bàners i imatges, en molts casos desagradables, i enllaços a pàgines que no tenien res a veure amb el que buscàvem.

Durant la dècada de 2000, tots estàvem acostumats al fet que en els resultats de cerca apareguessin algunes pàgines falses dedicades únicament a mostrar publicitat o tractar d’estafar-nos. Molts vam aprendre a reconèixer-les de seguida i a evitar-les, no obstant això, a la fi de la dècada, la cosa va degenerar tant fins al punt que només una petitíssima part dels resultats de cerca eren pàgines legítimes.

I com va poder succeir alguna cosa així?

Per una senzilla raó. Per l’aparició del SEO, el descobriment de com funcionaven els algorismes de Google a l’hora de posicionar, i amb l’ús cada vegada més generalitzat d’estratègies “tramposes”.

La més popular (i efectiva) de les estratègies per posicionar un negoci en el primer lloc dels resultats de cerca era aconseguir més enllaços entrants que la competència, i si aquests enllaços provenien de webs rellevants, millor que millor. Pel que calia fer dues coses:

  • Fer webs rellevants.
  • Afegir enllaços des d’aquestes webs als negocis que volem posicionar.

En aquells temps, fer una web rellevant era relativament fàcil. En primer lloc aquesta web havia de tenir molt contingut, i per tant, moltes paraules clau que potencialment captarien tràfic. Així que algunes persones van començar a programar robots que es dedicaven a recopilar textos d’altres webs, posteriorment reordenaven les paraules o frases de manera aleatòria perquè anés més difícil detectar el contingut copiat i després introduïen tot aquest text inintel·ligible en pàgines webs creades de manera totalment automàtica. Després aquestes diferents webs s’enllaçaven mútuament entre si de manera també aleatòria. Aquests llocs eren coneguts com a granges d’enllaços o link farms.

Quan els cercadors indexaven aquestes webs, la qual cosa veien eren llocs amb molt contingut molt variat, molt estructurats i amb enllaços entrants i sortints a altres webs igualment amb molt contingut variat… Òbviament el que havia escrit en elles era totalment absurd i sense cap sentit, però com els robots dels cercadors són això, robots, no s’assabentaven i pensaven que estaven indexant llocs d’interès per als usuaris.

Una vegada creat l’entramat de webs, era extremadament fàcil posicionar la web que ens interessava, simplement afegíem enllaços al lloc des de totes nostres webs falses i en molt poc temps s’aconseguia la primera posició. Aquest conjunt de tècniques és el que es coneix com Black Hat SEO

I després tots van començar a fer el mateix!

Evidentment en Internet no hi ha secrets. Si una empresa de SEO descobreix un truc per posicionar als seus clients en primera posició, és qüestió de molt poc temps que se sàpiga i es copiï per part de les altres empreses. No és normal que Instal·lacions Elèctriques Martínez i Fills estigui per davant de General Electric, això va posar la mosca darrere de l’orella a la competència que va començar a investigar i no va trigar a donar amb el truc. En poc temps tots van començar a fer el mateix i la Internet es va convertir en un gran abocador de paraules aleatòries sense sentit i pàgines no interessants posicionades en els primers llocs dels resultats de cerca.

Llavors en 2011 va arribar Panda per posar ordre

Sobre todo había necesidad de dos cosas:

  • Netejar de porqueria la xarxa per millorar l’experiència de l’usuari
  • Corregir els resultats de cerca distorsionats per l’abús de tècniques il·legals de posicionament

Per aconseguir aquest propòsit es van adoptar diverses estratègies:

  • La més dràstica va ser sancionar no només a les webs falses amb contingut copiat sinó també a les webs receptores d’enllaços des d’aquells llocs.
  • Es va reduir la importància dels enllaços entrants a l’hora d’assignar rellevància a un lloc web.
  • Es van començar a tenir en compte altres factors per determinar la qualitat d’una web, com per exemple el temps que es passa en ella, si res més entrar un se n’va perquè no és el que buscava (el percentatge de rebot), les faltes d’ortografia (una mala escriptura és símptoma de baixa qualitat), la vinculació del lloc amb les xarxes socials i comportament dels seus seguidors.

Des de llavors Google Panda ha tingut actualitzacions periòdiques per refinar els seus criteris de detecció de contingut de baixa qualitat o afegir nous. L’última, la versió 4.2, ha tingut lloc al juliol de 2015 i s’aplicarà de manera progressiva al llarg dels propers mesos pel que hi haurà un nou ball de posicions en els resultats de cerca, segurament amb alguna que una altra sorpresa.

Hem de tenir por a ser penalitzats per Google Panda?

Si tenim la consciència tranquil·la respecte a la nostra web, no hem de tenir por. La clau és la naturalitat. Si tenim un bon contingut de qualitat, la nostra web és útil, està adaptada a dispositius mòbils i no hem fet gens rar, no només no hem de tenir por a Panda sinó agrair-li que penalitzi als tramposos, ja que la nostra bona conducta serà sens dubte recompensada amb el temps.

Utilizamos cookies de terceros para analizar los hábitos de navegación para ofrecerle la mejor experiencia. Al pulsar el botón "ACEPTAR" consiente dichas cookies. Puede obtener más información, o bien conocer cómo cambiar la configuración, pulsando en Más información. ACEPTAR

Aviso de cookies
×