Stando a una serie di test condotti di recente, il “Googlebot” responsabile dell’indicizzazione dei contenuti disponibili su pagine Web è dotato di capacità molto avanzate – al punto da rendere quasi superflue le raccomandazioni sui testi da pubblicare “in chiaro” per raggiungere un buon piazzamento del ranking dei risultati delle ricerche eseguite dagli utenti.
Le capacità di crawling di Google non si fermano infatti al semplice testo accessibile su documenti in standard HTML, dicono i test, ma vanno molto oltre fino a poter indicizzare correttamente le pagine dinamiche, il codice JavaScript, i metadati e tutto quanto.
Il segreto del successo del Googlebot? La capacità di leggere il Document Object Model (DOM) di ogni singola pagina indicizzata, sostiene chi ha condotto i test, un'API standardizzata che definisce la struttura logica dei documenti in formato HTML e XML e il modo in cui potervi accedere.
Grazie all’accesso diretto al DOM, quindi, gli algoritmi di indicizzazione di Google sarebbero in grado di identificare e scansionare senza problemi i contenuti visualizzati dinamicamente (come ad esempio nel caso dei siti basati su pila LAMP, WordPress e simili), rispettando tutti i segnali tradizionalmente utilizzati in ambito SEO (metadati, titolo della pagina e tag).
Via | Search Engine Land