Da ormai qualche mese si sente parlare sempre più spesso di nuovi ‘filtri’ applicati da Google per evitare fenomeni di spamming (o di spamindexing, per essere più precisi).
Semplificando la rivoluzionarietà di Google, possiamo dire che essa è rappresentata dalla maggiore valutazione delle variabili ‘off the page’ rispetto a quelle ‘on the page’. Queste ultime sono tipicamente rappresentate dalle tag delle pagine HTML; le variabili ‘off the page’ sono invece, fondamentalmente, gli inbound links (link in entrata) e gli outbound links (links in uscita).
I motivi che hanno spinto i fondatori di Google a questa modifica sono principalmente due. Innanzitutto, si è ritenuto che i link (inbound) sono una sorta di ‘voto’ che altri siti danno a un sito: più sono questi link e maggiore è il ‘peso’ dei siti da cui questi siti provengono, più alto sarà il voto dato al sito in oggetto e meglio esso dovrà essere posizionato nei risultati di ricerca. A questa considerazione se ne aggiungeva un’altra: mentre un webmaster può, in tutta autonomia, modificare i fattori ‘on the page’ (presenza di testo attinente con il title, le meta keyword etc.), lo stesso non sarebbe potuto accadere con i fattori off the page.
In breve, mentre è semplicissimo cambiare il title di una pagina, non è altrettanto facile farsi linkare da un sito esterno. Il valore di questa premessa è durato molto a lungo, ma, come spesso accade, ‘fatta la legge, trovato l’inganno’; e l’inganno è stato il link-trading che da più di un anno e mezzo a questa parte, ma sempre più fortemente negli ultimi mesi, ha pervaso i rapporti fra i webmaster più attivi del web. A fianco di decine di migliaia di webmaster che pubblicano il proprio sito ‘normalmente’ e che aspettano che esso sia ‘normalmente’ linkato da altri in virtù della qualità dei suoi contenuti, ci sono migliaia di webmaster che pubblicano ciascuno decine o centinaia di siti che vengono ‘artificialmente’ linkati.
Definire ‘artificiale’ un link è molto semplic: un link è ‘artificiale’ quando viene fatto non in ragione della qualità dei contenuti del sito linkato, ma esclusivamente al fine di ottenere dei vantaggi nell’indicizzazione e nel posizionamento di Google. Per soddisfare questa esigenza, sono nate delle vere e proprie ‘link-farm’, delle fabbriche di link, in cui è possibile ‘acquistare’ dei link. Anche siti ‘normali’, che sono on-line da anni, hanno cominciato a ‘vendere link’, senza ovviamente pubblicizzare la cosa. Il pricing di questi link è abbastanza complesso. Per determinare il prezzo di un link verso il proprio sito si valuta: il page rank della pagina dal quale proverrebbe il link, il numero di link in uscita che conta la suddetta pagina, l’attinenza della pagina ‘linkante’ con quella ‘linkata’, etc.
Questo link-trading viene fatto anche in maniera più ‘amatoriale’. Il webmaster A si mette in contatto con il webmaster B affinché il sito B linki ad A e viceversa.
Possiamo pacificamente affermare che Google ha cambiato il modo di costruire siti e pagine web e che ha rappresentato un vero e proprio ‘moltiplicatore’ dei link fra un sito e l’altro. Ricordo bene quando, sino a pochi anni fa, i webmaster erano restii a linkare siti esterni, per una paura (poco giustificata) di perdere traffico a favore di altri siti e sarebbero ancora restii se questo non gli impedisse di ricevere a loro volta dei link da altri webmaster.
Dopo questa lunga premessa ‘storica’ possiamo allora affermare che i due cardini sui quali si è fondato il successo di Google come motore di ricerca (insieme con l’ampiezza del database, la velocità di caricamento della pagine, etc.) stanno rischiando di spezzarsi e che il rischio è che la qualità dei risultati di Google vada sempre più peggiorando perché, a fronte di decine di migliaia di webmaster che pubblicano ‘naturalmente’ il proprio sito, ve ne sono migliaia che pubblicano decine di siti e che lo fanno in quella maniera ‘artificiale’ che abbiamo sopra enunciato. Questo non rappresenterebbe di fatto un problema se non fosse che i siti ‘artificiali’ sono molto meno ricchi di contenuti originali rispetto ai siti ‘naturali’ e sono tendenzialmente proiettati a una visione squisitamente ‘commerciale’ del web piuttosto che a una più ‘informatica’ che è di fatto più apprezzata e che comunque era nelle intenzioni dei fondatori di Google.
Quali sono state dunque le ‘reazioni’ di Google a questa situazione? Il Web è un mondo che corre a una velocità almeno cinque volte superiore a quello dell’economia tradizionale. Una fabbrica che produce bulloni può perdere la sua leadership in cinque anni, inesorabilmente ma lentamente; ma un sito, un motore di ricerca, può perdere la sua leadership anche in un solo anno. I fondatori e gli amministratori di Google lo sanno bene. Che fare allora? Certamente non modificare gli algoritmi che hanno fatto la fortuna di Google e non diminuire l’importanza dei fattori ‘off the page’. Posto che solo chi lavora in Google sa quali sono gli effettivi provvedimenti presi al fine di evitare di riempire di siti ‘artificiali’ le pagine del più famoso motore di ricerca, sono state fatte diverse supposizioni. Una di questa è l’applicazione di un ‘filtro’ che dovrebbe dissuadere i webmaster da pratiche di link-trading. Questo filtro è stato denominato ‘Sand-Box’.
Il funzionamento del Sand-Box è molto semplice. Un sito che viene pubblicato oggi, con tanti link in entrata (inbound link), con una buona qualità di tali link (page rank dei siti linkanti), con tanto contenuto di testo, con gli URL contenenti keyword ‘popolari’ all’interno della pagina, ecc, insomma, un sito con tutte ‘le carte in regola’, non sarà posizionato per alcuni mesi. Questo filtro dovrebbe persuadere i webmaster ad evitare pratiche ‘artificiali’ perché a fronte, per esempio, dell’acquisto di vari link in entrata (e quindi a fronte di una spesa immediata) non vi sarebbero ritorni se non dopo mesi. Pare che la durata della permanenza del sito nel Sand-Box possa variare da un mese a sei mesi.
Le variabili in gioco sono molte. Premesso che questo ‘filtro’ sembra si applichi solo a questi siti che sono stati pubblicati dopo il mese di marzo del 2004, possiamo dire che più il settore è competitivo, più le keyword sono popolari, più sarà lunga la permanenza nel Sand-Box. Diciamo che la durata media sembra essere di tre mesi, ma non è detto che essa non duri di più per alcune keyword (le più competitive).
A chi si chiedesse quali siano i modi per accelerare l’uscita da questa Sand-Box (posto che ci si sia entrati), possiamo consigliare alcune procedure: intanto, non pensarci e agire come se Google non esistesse affatto, continuare ad aggiungere contenuti alle pagine e soprattutto continuare ad aggiungere link in entrata, possibilmente nella maniera più ‘naturale’ possibile, ovverosia non dieci link in un giorno e tutti con lo stesso anchor, ma dieci link in 40 giorni e tutti con anchor differenti.
Il Sand-Box, di fatto, posto che veramente esista e che sia applicato a tutti i nuovi siti che sono messi online, non è altro che un ‘differimento’, quindi l’unica arma che è possibile utilizzare è la pazienza. Dal Sand-Box si esce prima o poi e se, durante il periodo in cui il sito è stato tenuto in questo ‘limbo’, si è fatto di tutto per renderlo più appetibile e non ci si è scoraggiati, i risultati verranno, anche se non immediatamente e, quando verranno, saranno più duraturi.