Il problema dei contenuti copiati è sempre stato una delle più grandi preoccupazioni per chi lavora alla loro produzione ed ottimizzazione, senza contare gli investimenti operati da aziende ed editori per l'editing originale; ma come si comportano i motori di ricerca, ed in particolare Google, nei confronti dei contenuti prelevati da altre risorse e riportati pedissequamente su altri siti Web? Esiste un meccanismo per la loro identificazione e penalizzazione nella costruzione delle SERP?
Una recente rilevazione condotta da Pi Datametrics sembrerebbe mettere in dubbio le capacità dei search engine di riconoscere le produzioni originali distinguendole da quelle copiate, nella maggior parte dei casi, senza alcuna autorizzazione. A tal proposito verrebbe citato il caso di un sito Internet, progetto sviluppato per la travel company "Journeys by Design", vittima di un consistente calo di posizioni tra i risultati mostrati in seguito alla query "Mountain Gorillas Nest".
Fin qui niente di strano, per quanto i contenuti possano essere curati tenendo conto delle esigenze correlate alla SEO la concorrenza per l'occupazione delle posizioni più rilevanti in SERP rimane comunque particolarmente accesa. Nel caso specifico però al crollo di "Journeys by Design" sarebbe corrisposta un'ascesa di altri due siti Web che, in seguito ad un confronto anche superficiale, presenterebbero chiaramente delle porzioni di testo identiche a quest'ultimo.
Partendo dalla ventesima posizione per il termine chiave citato "Journeys by Design" avrebbe quindi perso oltre 80 posizioni, per contro i due siti Internet accusati di plagio ne avrebbero conquistato rispettivamente 57 e 82. Partendo dal sospetto che i contenuti originali non fossero sufficientemente tutelati, i ricercatori avrebbero quindi provato ad effettuare dei test copiando a loro volta in contenuti già presenti in altre risorse.
Le conclusioni ottenute in seguito agli esperimenti effettuati sarebbero state le seguenti:
- l'algoritmo di Google, seppur concepito per penalizzare contenuti di scarsa qualità o duplicati, non sembrerebbe in grado di valutare e premiare l'originalità degli stessi;
- il fatto che un sito Web sia ben posizionato da tempo nella SERP e vanti una forte presenza nei social network non sarebbe sufficiente a tutelarlo contro gli effetti dei plagi;
- Google sembrerebbe privilegiare l'elemento di novità dei contenuti, motivo per il quale un nuovo contenuto copiato sarebbe in grado di danneggiare il posizionamento di quello originale;
- alcuni criteri utilizzati dal motore di ricerca per determinare la priorità delle risorse apparirebbero arbitrari o se non altro indifferenti allo sforzo di proporre contenuti originali.
A questo punto l'unica soluzione possibile sembrerebbe essere quella basata sulla vigilanza costante e continua della concorrenza, perché l'unico modo per tutelarsi dagli effetti negativi del plagio sembrerebbe essere l'iniziativa personale.
Via Pi Datametrics