Uno degli strumenti più importanti nelle mani del SEO è il log
degli accessi al sito in quanto consente di analizzare vari fenomeni e migliorare
la strategia di posizionamento del sito stesso.
A cosa possono servirci i log? Che informazioni cercarvi? Come analizzarli? L’articolo
inizia l’esplorazione di questo “diario di bordo" per prendere
coscienza dell’importante attività successiva al primo posizionamento.
Obiettivi del primo progetto di posizionamento
Il primo progetto di posizionamento normalmente ha l’obiettivo di rendere
visibile il sito per quelle che si ritengono essere le chiavi più importanti,
sui motori più importanti. Che ci si rivolga ad una società specializzata,
che si faccia in casa, il primo posizionamento è quasi sempre un esperimento
sulla base del quale si affineranno gli artigli per la gara successiva.
I risultati ottenuti sono, solitamente:
- su alcuni dei motori sui quali si è puntato, il sito è visibile
per alcune delle chiavi; - su pochi motori, il sito è visibile in prima pagina per quella che
riteniamo essere la chiave più importante; - il sito è accettato in una o più directory;
- il PR su Google passa a 3 o 4;
- il traffico aumenta in modo visibile;
- l’indice di Alexa scende dimostrando l’aumento di traffico.
E adesso? È giunto il momento di passare al secondo progetto. Strumento
indispensabile, il log e programmi idonei alla sua analisi.
Requisiti per l’analisi dei log
Il log è un file scritto dal web server (Apache o IIS) che riporta le informazioni
relative alle visite giunte al sito. Alcuni standard mondiali ne fissano i formati.
I requisiti per l’analisi sono:
- il file deve essere disponibile. Se il server è in casa, occorre accertarsi
che sia attiva la scrittura del log. Se il sito è in hosting, occorre accertarsi
che il provider renda disponibile il file. - il web server deve essere configurato in modo da porre sul log le informazioni
necessarie. Verificare che vi siano almeno: ip di accesso, url di provenienza,
file richiesto, user-agent; - sufficiente spazio per il periodo di log che si vuol considerare. Pensare
almeno ad un anno, meglio due; - nel caso il sito sia in hosting, occorre verificare che i log siano scaricabili
in qualche modo (ftp, per esempio).
Un ostacolo all’analisi del log può essere data dalla dimensione
eccessiva dei log. In questo caso:
- diminuire le informazioni registrate agendo sui parametri di configurazione.
Si possono escludere vari tipi di file (gif e jpg, per esempio), togliere colonne
che non sono d’interesse; - scaricare periodicamente i log per evitare fasi eccessivamente lunghe di
file transfer; - analizzare i log direttamente sul server (se possibile).
Come analizzare i log
Stabilito che i log sono disponibili, quali sono gli strumenti per la sua analisi?
Molto dipende da quali informazioni si sta tentando di ottenere. Alcune possibilità
sono:
- un programma di statistiche individuato sul mercato;
- un sistema approntato in casa e basato sul caricamento del log in un database
strutturato; - un editor.
Quali sono i vantaggi di ognuno dei sistemi?
Un editor consente la ricerca di fenomeni che difficilmente si possono determinare
via software. È impossibile, naturalmente, per log di grandi dimensioni.
I programmi di statistica consentono la generazione veloce di report e sono
solitamente semplici da configurare.
Un sistema proprietario ha parametri meglio controllabili e le statistiche
generate danno una maggiore conoscenza del fenomeno.
Stabilito che i log sono disponibili e abbiamo uno strumento di analisi, cosa
andiamo a cercare?
Le visite degli spider
Il passaggio degli spider dei motori sul sito è uno dei fenomeni che
si vuol controllare mediante l’analisi dei log. Sono disponibili in rete
gli indirizzi IP e lo user-agent dei più importanti spider. La conoscenza
di queste informazioni è fondamentale per il SEO professionista.
Riconoscere la visita degli spider è importante per vari motivi, alcuni
evidenziati nelle sezioni successive, tra i quali:
- esaminare la profondità dell’indicizzazione;
- valutare la frequenza di lettura del sito da parte del motore;
- separare le visite dei motori da quelle degli utenti, per avere statistiche
corrette; - verificare il primo passaggio del motore al quale il sito è stato
appena segnalato (fatto solitamente importante).
Se si utilizza un sistema di statistiche standard, è necessario che
il database degli spider riconosciuti sia sempre mantenuto aggiornato, accertandosi
che il fornitore del software consenta tale operazione.
La profondità dell’indicizzazione
Analizzando le visite che gli spider fanno al sito, è possibile determinare
quale livello di profondità raggiungono nella lettura della struttura.
Pagine importanti per il posizionamento, se messe ad un livello non raggiunto
dagli spider, possono non entrare mai nella base dati del motore, rendendo vana
ogni attività di ottimizzazione.
Pagine che si vuole siano lette spesso, è importante che siano al livelli
alti della struttura, quanto più vicino alla home.
Ogni spider ha sue caratteristiche, in tal senso, e conoscere il livello mediamente
raggiunto nelle visite consente di migliorare la parte di struttura deputata al
posizionamento sui motori di ricerca.
La frequenza del passaggio degli spider
Un’altra informazione ricavabile dall’analisi dei log è
la frequenza del passaggio degli spider. Tale conoscenza consente di meglio programmare
le attività di ottimizzazione e prevedere l’aggiornamento dei database
dei motori.
Passaggi frequenti degli spider, per altro, sono in generale indice di buona
salute e saperlo consente di valutare le strategie migliori per proseguire con
il posizionamento. Un sito ad alta frequenza di visita può essere usato
per velocizzare la scansione da parte degli spider di altri siti referenziati
ed il loro posizionamento.
Le chiavi cercate dai visitatori
Le chiavi cercate dai visitatori sui motori di ricerca sono riportate nel
file di log e l’analisi consente di avere il numero di navigatori arrivati
al sito per ognuna di esse. Incrociando le chiavi che portano il traffico con
la loro posizione, è possibile stabilire su quali di esse è opportuno
lavorare per aumentare il numero delle visite.
Ad esempio, una chiave con un buon apporto di traffico, ma mal posizionata su
un motore importante, presumibilmente aumenterebbe di molto il suo contributo
se spinta nella prima pagina dei risultati.
Per tale report è importante prestare attenzione al fatto che spesso i
sistemi di statistica standard non riconoscono tutti i motori, fornendo indicazioni
errate. In questo caso, l’analisi diretta del log mediante un sistema proprietario
può garantire numeri certi.
I motori di provenienza
Al pari delle chiavi, i motori di provenienza delle visite possono essere oggetto
delle considerazioni sull’apporto di traffico in relazione alla posizione
media delle chiavi importanti.
L’apporto di una buona quota di traffico su una chiave importante mal posizionata
può far presupporre ottime possibilità di miglioramento a fronte
di ulteriore ottimizzazione.
Per contrapposizione, motori con scarsa incidenza a dispetto dell’ottima
posizione del sito, potrebbero essere destinati a minori energie nelle successive
fasi di ottimizzazione. In fondo, il lavoro è danaro.
Possibilità di miglioramenti
Per riassumere, dall’analisi dei log possiamo ottenere i seguenti spunti
per le successive attività di miglioramento del posizionamento del sito
sui motori di ricerca:
- motori sui quali investire per migliorare la posizione;
- chiavi sulle quali investire;
- livello massimo al quale porre le pagine ottimizzate;
- punti ove mettere i link che si intende far seguire velocemente dagli spider;
- pagine maggiormente lette e idonee, quindi, per gli esperimenti.
Conclusione
L’analisi dei log è una delle attività principali di chi si
occupa del posizionamento di un sito e consente di ricavare molte indicazioni
indispensabili per successivi progetti.