Non sono pochi i proprietari di siti web che hanno deciso di ‘comprarsi un’isola’.
Chiariamo subito di che cosa stiamo parlando. Tutti sanno che il ‘valore’ di un sito e quindi la sua indicizzazione e il suo posizionamento nei motori di ricerca sono fortemente dipendenti dagli ‘inbound link’, ovverosia dai link ‘in entrata’ che ricevono da altri siti. Questo è valido per tutti i motori di ricerca, ma sempre di più lo è per il più grande distributore di click oggi presente sul mercato: Google. In Google, i fattori ‘off the page’ hanno assunto un’importanza negli anni scorsi solo accennata, lasciandosi alle spalle quasi definitivamente concetti come la keyword density, per non parlare di tutti i tipi di tag.
I SEO e i SEM si stanno quindi sempre di più dedicando al miglioramento di questi fattori ‘off the page’ che sono rappresentati quasi esclusivamente dai link. Proprio in seguito alla constatazione della grande importanza degli inbound link, sono nate – in poco tempo e dal nulla – delle società che vendono… link.
Prima di analizzare questo fenomeno (e la soluzione alternativa che molti SEM e SEO sembrerebbero avere individuato per evitare di dovere ‘comprare’ link), spieghiamo – per chi ancora non lo sapesse – perché Google dà questa importanza ai link in entrata.
Il punto di partenza è lo spamdexing. Anni fa, i motori di ricerca erano molto più ‘fiduciosi’ nei confronti dei siti indicizzati. Se un sito ‘dichiarava’ (nel meta-title, nella meta-description e nelle meta-keys) di essere un sito di musica rock, esso veniva considerato automaticamente un sito di musica rock. In sostanza, i siti erano come dei ‘libri’ di cui l’autore stesso scriveva la recensione che doveva poi essere utilizzata per il reperimento di suddetti libri-siti nel web, in fase di ricerca.
Il sistema sarebbe perfetto se non ci fossero dei proprietari di siti interessati ad ottenere un traffico ‘illecito’, ovverosia fondato sulla falsa premessa che il proprio sito tratti di un argomento popolare mentre di fatto promuove altri prodotti; tipico il caso di siti porno che si indicizzavano nella categoria musicale, per raggiungere un target di pubblico tendenzialmente molto fruttuoso (come, per esempio, i giovanissimi).
Il primo effetto di questi ‘fooling’ dei motori di ricerca è stato l’abbassamento della qualità dei risultati di ricerca; a seguito di ricerche ‘musicali’ venivano infatti visualizzati molto spesso siti pornografici (o anche viceversa); in sostanza, quello che dichiaravano i proprietari dei siti (quelli che un tempo si chiamavano genericamente webmaster) non corrispondeva al contenuto effettivo dei siti visualizzati.
Una delle prime ‘risposte’ a questa situazione è stato l’abbassamento di considerazione e di ‘peso’ attribuito alle meta-description e la valutazione degli effettivi contenuti della pagina; un sito non era più ‘individuato’ da title, keyword e description ma dal testo contenuto nelle pagine stesse.
Questo ha rappresentato senza dubbio un progresso in fase di lotta allo spamdexing, lasciando però irrisolto il problema del ranking dei suddetti siti.
Posto che dieci siti siano perfettamente attinenti a una determinata ricerca effettuata sul motore, quale sarà il loro ordine di visualizzazione?
Google è stato il primo motore di ricerca ad avere introdotto fattori ‘off the page’ ovverosia che non hanno a che vedere con quanto ‘sta’ sulle pagine; gli inbound link sono le prime (se non uniche) variabili di questi fattori. Ma come funziona il meccanismo?
È molto semplice. Il motore di ricerca valuta meglio (e quindi li colloca in posizioni migliori nelle SERPs) quei siti che raccolgono numerosi link da altri siti web. Ovviamente il peso di questi link è variabile e dipende a sua volta da quali sono i siti che li linkano e così via, in una specie di circolo vizioso che cercheremo di chiarire meglio in un prossimo articolo.
Come appare evidente, questa strategia ha dei vantaggi ma anche degli svantaggi. I link “inbound" sono considerati come una sorta di ‘voto’ che altri siti danno a un determinato sito. La ‘novità’ rispetto ai ‘voti’ che il webmaster dava precedentemente con le proprie tag è che questi sono indipendenti dalla volontà del proprietario del sito e dovrebbero essere quindi più “obiettivi".
Lo svantaggio è che questo sistema privilegia i siti che hanno una lunga storia rispetto a quelli che sono appena nati o che sono on-line da meno tempo. Questo principio ‘conservatore’ non è affatto giustificato in un mercato libero; è come se i negozi appena aperti non avessero la possibilità di installare delle insegne pubblicitarie delle stesse dimensioni dei negozi più vecchi; si tratta di una sorta di barriera all’ingresso di un mercato che invece dovrebbe essere completamente libero.
A prescindere però da ragionamenti pseudo-macroeconomici, possiamo affermare che questa strategia (attribuire notevole importanza ai link in entrata) rappresenta una sorta di ‘resa’ da parte dei motori di ricerca nei confronti della sfida volta a decidere quali sono i siti che meglio corrispondono a una determinata ricerca.
Questa è – comunque – la situazione.
Qual è stata dunque la reazione di SEM e SEO, ovverosia di tutti coloro che – di professione – si occupano di migliorare la visibilità di un sito sui motori di ricerca?
Una di queste è stato l’acquisto compra-vendita di link. In uno dei prossimi articoli vedremo di capire se sia veramente conveniente questa strategia; qui ci occuperemo invece di capire se abbia senso una seconda strategia, che è quella – come abbiamo indicato nel titolo – di “comprarsi" un’isola ovverosia di comprarsi non i link al proprio sito, ma i siti stessi che poi debbono linkare al proprio sito.
L’idea è semplice: partendo dal presupposto che quanti più click in entrata verso il proprio sito quanto meglio esso sarà indicizzato, molti hanno pensato di costruire dei siti con la sola finalità di linkarli al sito principale (che in USA è anche chiamato ‘mother-site’). In breve: non ci sono siti che mi linkano? Costruisco io i siti da cui poi linkare il mio sito principale.
La nostra tesi è che questa strategia non è affatto efficace, ma soprattutto non è efficiente, ovverosia non è cost-effective. Vediamo il perché.
All’interno di questa strategia ‘autocratica’ di linkaggio ci possono essere due ‘tattiche’, la prima quantitativa e la seconda qualitativa. Nell’ipotesi quantitativa, il SEO è interessato a creare un grande numero di siti che linkino al mother-site, non preoccupandosi del loro page rank e del peso che essi stessi avranno nei motori di ricerca, ma puntando soltanto sul numero. Questa tattica è sbagliata per due motivi principali. In primis, 1.000 link da altrettanti siti che hanno page rank zero o inferiore di quattro non fanno di certo migliorare il page rank o il posizionamento del mother site; questo perché i motori di ricerca (e Google per primo) valutano positivamente i ‘voti’ insiti negli inbound link solo se questi sono forniti da siti ‘autorevoli’ o che comunque abbiano un ‘credito’ sul motore di ricerca stesso: 1.000 clicks da siti con page rank insignificanti, traffico insignificante e link popularity insignificante non serve assolutamente a nulla.
Inoltre, accanto a questo problema, esiste la seria possibilità che il motore di ricerca individui questi link come ‘artificiali’; i parametri non sono pubblici, ma possiamo affermare pacificamente che un buon motore di ricerca (e a questi sono interessati i SEO) è in grado di riconoscere la ‘parentela’ di un network di siti; i parametri possono essere:
1) il contenuto (simile anche se non identico)
2) la grafica (simile anche se non identica)
3) il codice HTML (spesso è proprio identico)
4) l’hosting (stessa classe di IP)
5) il linking reciproco
6) il medesimo registrar
7) il medesimo proprietario
Chi infatti crea 1000 siti per linkare il proprio mother-site non può certo trovare diecimila siti che a loro volta linkino il network di siti, perché allora sarebbe stato molto più semplice sforzarsi di fare linkare direttamente il mother-site piuttosto che passare attraverso l’intermediazione del network; accade dunque che Google riconosca che il mother-site è linkato da 1.000 siti, ma allo stesso tempo può verificare che questi 1.000 siti non sono linkati da siti esterni (al network stesso). In sostanza questo network diventa una spam-island (ecco il perché del titolo di questo articolo). A parte tutto, rimane poi il grosso problema di quali contenuti inserire nei siti di questo network.
La seconda tattica è qualitativa, ovverosia creare una decina di siti che abbiano un proprio contenuto e che possano avere un “peso" per il motore di ricerca e quindi linkarli al mother-site.
Questa tattica è forse superiore alla precedente sia in efficacia sia in efficienza, ma come vedremo ora ha dei difetti difficilmente sormontabili.
Per creare anche solo dieci siti ‘pesanti’ bisogna fare dei notevoli sforzi. Intanto, bisogna costruire dieci siti completamente diversi l’uno dall’altro (quindi una ipotetica industrializzazione che poteva essere utilizzata per la tattica precedente non può essere applicata), bisogna poi creare un contenuto originale e che sia sempre aggiornato e, infine, bisogna necessariamente trovare dei siti esterni al micro-network che linkino al network stesso. Il SEO che volesse quindi intraprendere questa strada si troverebbe di fronte al paradosso di dovere moltiplicare il lavoro originario (trovare siti che linkino il proprio sito) per dieci.
A seguito di questa breve analisi possiamo dunque trarre abbastanza serenamente una facile conclusione: qualora si voglia puntare fortemente ad aumentare la visibilità del proprio sito web attraverso fattori off the page e primariamente attraverso reperimento di inbound link, è molto più conveniente concentrarsi sulla qualità del proprio sito, cercare di fornire materiale che ‘invogli’ siti terzi a linkarlo e stabilire quindi una strategia di linking con altri siti (che non siano quindi della medesima proprietà).
Costruirsi un’isola di linkaggio (quantitativa o qualitativa) è dunque possibile e può portare anche alcuni risultati positivi; di fatto, l’utilizzo delle medesime energie (finanziarie e lavorative) finalizzata al miglioramento della visibilità di un solo sito (quello che veramente interessa) porterebbe a risultati decisamente più soddisfacenti.