Da qualche tempo a questa parte si sente parlare di over-optimization in relazione a pratiche di SEO. Inutile dire che questo concetto è legato per lo più a Google, che - nonostante gli sforzi profusi negli ultimi mesi/anni da MSN e Yahoo - è a tutt'oggi la più grande 'fonte' di visite per qualsiasi sito web che abbia un traffico 'engined'.
Prima di capire se effettivamente esista questa over-optimization, vediamo di chiarirne il concetto.
Come dice la parola stessa, l'over-optimization è una "eccessiva" ottimizzazione; per ottimizzazione si intende quell'attività volta a migliorare l'esperienza di navigazione dell'utente e allo stesso tempo l'attività di spidering e di indicizzazione dei motori di ricerca. È bene subito chiarire che per ottimizzazione si debbono intendere quelle attività "white hat", ovverosia consentite, e non quelle "black hat", ovverosia di vero spamgine. Attività tipicamente di spamgine sono l'utilizzo di font dello stesso colore del background, utilizzo di font troppo piccoli per essere letti da un navigatore etc. In questo articolo presupponiamo che le attività di 'white' optimization siano conosciute e le citeremo solo come esempi nell'analisi della possibilità della suddetta over-optimization.
La nostra teoria è che di fatto non si possa mai parlare di over-optimization, quanto piuttosto di bad optimization, ovverosia di utilizzo scorretto degli strumenti che normalmente migliorano il posizionamento di un sito nelle SERPs (Search Engine Results Pages).
Partiamo da un dato di fatto: molti siti che sino a poco tempo prima erano presenti e ben posizionati sulle pagine di Google hanno subìto delle drastiche penalizzazioni. È sufficiente visitare qualcuno dei forum in cui i webmaster condividono le proprie esperienze per verificare questo fatto. Nella maggior parte di questi casi, venivano applicate tecniche "white hat", infatti in caso di pratiche spamming è difficile che il sito raggiunga dei buoni livelli di posizionamento.
Che cosa è accaduto a questi siti? Perché un sito che fino a ieri era considerato 'valido' da Google, oggi si ritrova bannato o fortemente penalizzato?
Per analizzare i possibili casi di over-optimization dobbiamo distinguere tra fattori on-page e fattori off-page.
I fattori on-page sono quelli che riguardano ciò che è contenuto nelle pagine del sito in oggetto.
I fattori off-page sono quelli che riguardano invece ciò che esula dai contenuti delle pagine del sito.
A nostro parere esiste solo un tipo della cosiddetta over-optimization che può riguardare i fattori on-page; si tratta della keyword density. Uno dei parametri che Google valuta per il ranking di una pagina nelle SERPs è la keyword density, ovverosia la frequenza di una keyword (o keyphrase) all'interno di un documento. Mettiamo che la keyword in oggetto sia "lardo di colonnata"; una pagina sarà posizionata nelle SERPs meglio di altre se - a parità degli altri fattori - conterrà una 'giusta' frequenza di questo termine rispetto alle altre parole utilizzate. Google non ha mai dichiarato (per ovvie ragioni) quale sia questa percentuale o quale sia il range percentuale che permetta di far parlare di una frequenza "corretta". A nostro parere la percentuale non deve eccedere il 5% dei termini di una pagina anche se molti parlano anche del 10, 12%. Di fatto, è plausibile che pagine che contengano una frequenza eccessiva di un termine significativo (e quindi 'al netto' di preposizioni, articoli, avverbi etc.) siano considerate da Google 'innaturali' e subiscano quindi un banning o una penalizzazione. Questo esempio, citato in molti forum come esempio di over-optimization, a nostro giudizio è una pratica "black hat"; che differenza c'è tra utilizzare font dello stesso colore del background di una pagina ed 'esagerare' con l'utilizzo di una keyword all'interno di un documento? Nessuna. Quindi, in questo caso, non si tratta di una over-optimization, ma di una bad-optimization, ovverosia di un utilizzo sbagliato (e quindi illegittimo) di tecniche corrette.
Più interessante è il caso dei fattori off-page. A nostro parere, il principale fattore off-page in un sito è il suo inbound linking, che - di fatto - possiamo considerare la vera novità introdotta da Google nel 1998. L'essenza dell'inbound linking è questa: a parità di fattori on-page, vengono posizionati meglio quei siti che sono più linkati (quantità) e linkati da siti già considerati "validi" e che siano attinenti con i contenuti del sito linkato (qualità).
A nostro parere l'inbound linking può essere controproducente.
Come sempre, ciò che conta per Google è la 'naturalezza'; la regola aurea è (in teoria) quello di non fare nulla per l'indicizzazione che non si sarebbe fatto se i motori di ricerca non esistessero; una teoria che è certamente di difficile attuazione, ma che ha una logica fondata.
Torniamo dunque ai link. Se è vero che un sito è tanto meglio posizionato quanto più (e meglio) è linkato, è anche vero che questi link non debbono apparire 'artificiali' agli occhi dello spider (di Google o di altri motori di ricerca). Uno dei possibili fattori che può determinare l'artificialità dei link è il timing di linking; se un sito appena nato o comunque appena indicizzato da un motore registra un improvviso aumento dei link in entrata (inbound link), è probabile che questo venga visto come "attività artificiale"; è infatti improbabile che in un breve range temporale lo stesso sito sia linkato contemporaneamente (e 'naturalmente') da molti siti. Il linking e/o il crosslinking naturali tipicamente richiedono molto tempo perché inizialmente sono pochi i siti disposti a linkare siti che sono nati da poco, che non hanno una storia etc. Un altro fattore di fondamentale importanza è la denominazione degli anchor; la presenza di anchor ripetuti (ovverosia di medesima o simile denominazione dei link) è sicuramente ritenuto un indice di 'artificialità' e quindi depone a sfavore per il sito linkato. Sono infine di fondamentale importanza anche le caratteristiche dei siti di provenienza. Nel caso in cui un sito sia linkato da numerosi siti aventi le medesime caratteristiche (codice html identico o simile, stessa classe di IP o addirittura medesimo IP, etc.), è evidente che un motore di ricerca considererà questi link "artificiali", anche se attivati in un ampio lasso di tempo e con diversi anchor.
Questa è la situazione attuale (ipotizzata, ovviamente). Possiamo ora chiederci se questa strategia di penalizzazione adottata dai motori di ricerca (e, in primis, da Google) sia corretta.
A nostro parere è corretta solo la penalizzazione nel caso in cui ci sia un eccessivo numero di keyword in una pagina, e per un semplice motivo; se fosse vero che un sito può essere penalizzato da bad-linking (come nei casi succitati), allora vuol dire che chi voglia penalizzare un sito concorrente può farlo tranquillamente e a insaputa del sito che si vuole penalizzare. Poniamo che il sito A sia concorrente del sito B; A potrebbe, da un proprio network di siti già penalizzati e quindi considerati 'cattivi', eseguire un'opera di linking verso il sito B e in questo modo penalizzarlo.
A nostro parere sarebbe più corretto - da parte di un motore di ricerca - 'sospendere il giudizio' sui link che appaiono artificiali e 'tenere per buoni' solo quelli che appaiono essere naturali.
Ancora una volta, appare chiaro come non esista un algoritmo o un insieme di algoritmi perfetto per indicizzare e posizionare un sito. Anche variabili nate con una giustificazione si rivelano essere deboli e possono essere sfruttate per influire sul posizionamento di siti terzi.
I fattori off-page, così tanto osannati e considerati negli ultimi anni, si rivelano dunque ambigui. Di fatto, anche la loro origine non è ben giustificata. Chi dice che un sito che è più linkato sia migliore di un sito che non lo sia? E' come credere che il vestito migliore sia quello che compra più pubblicità, oppure che il politico migliore sia quello più votato, oppure che la persona più intelligente sia quella che intrattiene più relazioni con amici e conoscenti.
A nostro parere, nel futuro dei motori di ricerca dovranno prendere sempre più spazio i fattori on-page. L'utilizzo di fattori off-page non è altro che una 'resa' da parte di un motore di ricerca nella sua capacità di valutare "in sé" la bontà di un sito. Poniamo che il sito A abbia fatto opera di linking artificiale (acquistandoli oppure costruendo dei siti ad arte per autolinkarsi); questa è sicuramente una strategia "black hat"; ma ciò vuol dire anche che il sito in questione non è di qualità? Assolutamente no. Per questo i fattori on-page rimangono di fatto i più importanti. Probabilmente il passaggio tanto aspirato (da parte non solo di Google, ma anche degli altri player) da una versione lessicale a una versione semantica rappresenterà la possibilità di superare l'impasse qualitativa (di quantità ne abbiamo fin troppa) in cui i motori di ricerca si trovano attualmente.