Il posizionamento sui motori di ricerca diventa sempre più importante per garantire il traffico ai siti, in particolare per quelli che ricavano un vantaggio economico diretto dal numero d'utenti che giornalmente accedono alle pagine.
L'esclusione da un motore di ricerca importante può causare una forte riduzione del traffico e portare ad un danno economico direttamente proporzionale.
Una strategia che miri a rendere il traffico meno influenzabile dalle variazioni degli algoritmi dei motori è indispensabile.
La visibilità del sito
La visibilità che il sito ha sul web è caratterizzata da vari parametri che devono essere considerati per valutare quanto sia valida e sufficiente per raggiungere gli obiettivi che ci si è posti.
Il numero delle chiavi che a fronte delle ricerche riportano il sito nei risultati è uno dei parametri più importanti. Essere presenti per una chiave importante e invisibili per le altre, se può portare ottime quote di traffico, implica la perdita di piccole percentuali che però sommate tra loro spesso riportano valori a due cifre.
Il numero dei motori sui quali si è presenti è un altro parametro importante. Anche considerando il fatto che per il proprio sito un solo motore può portare la quota maggiore di traffico, non è possibile trascurare che gli altri, sommati, portano contributi significativi. Il 10% del traffico può sembrare poco, ma occorre considerare che nella vita reale aziende commerciali per acquisire la stessa quota sono disposte a spendere centinaia di migliaia di euro (quando non milioni).
Anche la pagina indicata nei risultati dei motori ha la sua importanza. Spesso non è sufficiente che una pagina qualunque sia visibile. Tale tipo di visibilità, a volte, può pregiudicare il successo delle visite.
La concentrazione della visibilità, descritta nelle due sezioni successive, un altro dei parametri importanti nella valutazione della stessa.
Ottimizzazione concentrata su alcune pagine
Il lavoro d'ottimizzazione può essere effettuato in modo da concentrare su alcune pagine tutta l'attenzione dei posizionatori e, conseguentemente, la probabilità d'essere visibili sul motore prescelto.
Spesso, infatti, a fronte di molte chiavi che producono un risultato, sono pochissime le pagine estratte, quando non solo la home.
Tale situazione non sempre è la migliore e l'analisi delle visite conferma, per esempio, che portare sulla home un visitatore che ha fatto una precisa ricerca, può provocare l'abbandono del sito se l'individuazione della pagina interessata non è immediata.
Le motivazioni per le quale si tende a questa concentrazione sono molte e spesso date da servizi di posizionamento standardizzati, da migliore gestibilità dell'attività d'ottimizzazione, da desiderio di separare nel team di sviluppo le pagine ed il lavoro degli ottimizzatori da quello delle pagine ufficiali e degli sviluppatori.
Ottimizzazione distribuita
su tutte le pagine
La presenza di molte pagine ottimizzate, a costo di una più difficile gestione operativa dello sviluppo, porta il sito ad essere presente sui motori con una più larga base dei suoi contenuti.
Ciò è evidentemente positivo se però risultato di un preciso progetto che stabilisce quali siano le pagine che devono emergere, per evitare che contenuti non rilevanti o sezioni presenti solo per motivi tecnici siano poi quelle d'arrivo dei visitatori.
Arrivare ad una pagina (esempio quella di un frame) che non contiene il link alla home e non presenta possibilità di navigazione è considerato fatto gravissimo.
Evoluzione degli algoritmi
dei motori
Molti sanno che nel tentativo di dare risultati sempre migliori ai navigatori, i motori cambiano frequentemente gli algoritmi usati per compilare le liste dei siti.
Effetto principale di tale modifica è che un sito posizionato in prima pagina può trovarsi in decima o essere del tutto escluso, con conseguenze facilmente immaginabili.
In certi settori, tra l'altro, anche la perdita di 5 posizioni può risultare dannosa. Infatti occorre considerare che passare dalla settima posizione alla dodicesima implica un cambio pagina con perdita notevole di visibilità.
Il continuo modificarsi delle regole porta le pagine ottimizzate ad un saliscendi sui risultati delle ricerche con difficile quantificazione della visibilità che si ha, soprattutto considerando il fattore tempo.
La visibilità media del sito
La creazione di una strategia che porti il sito ad essere sempre visibile passa per la definizione di un concetto importante: la visibilità media del sito.
Un sito può avere una visibilità spinta in relazione ad una certa chiave o ad un dato motore o ad una determinata pagina del sito stesso. Con visibilità media, invece, intendo quanto il sito è trovabile sui motori di ricerca variando tutti i parametri già visti (motori, chiavi, pagine emerse).
Consideriamo i due estremi possibili.
1) Un sito posizionato nella prima posizione di un importante motore di ricerca per una chiave attinente e molto cercata, ma senza altre possibilità d'essere visto. In questa situazione il traffico può essere notevole, ma il rischio di calo improvviso è altissimo. Se quel motore cambia l'algoritmo, il sito si ritrova senza visitatori.
2) Un sito posizionato nella prima pagina (magari nona posizione) di diversi tra i motori importanti per il mercato prescelto (magari senza il primo), per molte chiavi (tra cui quella importante), con presenza di varie pagine del sito stesso. Il traffico può essere inferiore a quello del primo caso (e non è detto, comunque), ma risulta decisamente più stabile.
Stabilire qual è il motore che porta più traffico e quale la chiave più ricercata consente di concentrare le energie nelle fasi di primo posizionamento, per raggiungere velocemente ed a costi inferiori alte quote del traffico espresso dal settore.
Fondamentale, però, è che il lavoro di posizionamento non si fermi qui. Il traffico deve essere reso stabile aumentando il numero dei motori, il numero delle chiavi e le pagine estratte. Ciò, infatti, diminuisce notevolmente le probabilità di calo del traffico in funzione della modifica di algoritmi d'indicizzazione o, quanto meno, ne riduce la diminuzione.
Ridondanza dei contenuti per chiave
Stabilito che ogni pagina dovrebbe essere ottimizzata per una o due chiavi al massimo, spesso noto che nel sito ne esiste solo una per ognuna delle frasi più importanti.
Il rischio di una tale situazione è che tutto il traffico sia funzione di una sola pagina (per chiave, per lo meno) con possibilità di crollo nel caso che proprio le regole che vi sottostanno sono quelle che sono state cambiate.
È opportuno, quindi, che per ogni chiave siano preparate varie pagine, con leggere differenze nei criteri d'ottimizzazione (ed ovviamente di contenuti). I vantaggi ottenuti sono due: pagine diverse possono avere migliori possibilità su motori diversi; a fronte del cambiamento di un algoritmo, una pagina potrebbe scendere ed un'altra salire.
Nuove pagine al posto della modifica
I motori cambiando algoritmo non s'inventano ogni volta una nuova formula. Le modifiche, in realtà, sono spesso legate ai valori soglia dei parametri impiegati.
Una pagina ottimizzata per i valori più adatti per i vari parametri coinvolti, a fronte di una modifica dell'algoritmo potrebbe risultare non più ottimale. C'è sempre la possibilità, però, che a fronte d'altre evoluzioni future, torni ad esserlo. Ciò capita molto più frequentemente di quanto non si creda.
La strategia di mantenimento del posizionamento e stabilizzazione del traffico, quindi, deve prevedere che le pagine ottimizzate non siano mai modificate, ma piuttosto affiancate da nuove pagine che soddisfino le nuove regole. Ciò porta ad aumentare le pagine costituendo nel tempo una base d'alternative possibili già pronte quando i motori variano l'algoritmo. Una pagine, quella meglio ottimizzata probabilmente, scenderà di posizione, ma una delle vecchie riprenderà la propria.
Mantenimento online delle vecchie pagine
A migliorare la stabilità del posizionamento concorre anche l'attuazione di un metodo che non porti alla rimozione delle pagine vecchie.
A fronte della modifica dei contenuti, è preferibile che le vecchie pagine restino sul server con l'indicazione del fatto che sono scadute ed un link alle nuove realizzate.
Si tratta di un metodo che consente di allargare ulteriormente le possibilità di mantenere (ed addirittura migliorare) la propria visibilità in casi di modifica degli algoritmi dei motori di ricerca.
Conclusione
Aumentare le pagine del sito ed in particolare aumentare quelle ottimizzate mantenendo quelle vecchie o quelle soddisfacenti i vecchi criteri, consente di stabilizzare il traffico mantenendo nel tempo una visibilità media del sito che risente meno delle modifiche degli algoritmi dei motori di ricerca.
Aumentare le pagine nel tempo, aumentando i contenuti e migliorando l'ottimizzazione il modo migliore per rendersi indipendenti da eventi non altrimenti controllabili.