Archivi

Ultimi Commenti

Categorie

Blog

spintax

Pagine web con testi generati a caso: come si posizionano su Google oggi?

Quando vengono posizionate le pagine di Google, in linea generale, il fattore “umano” della scrittura viene effettivamente considerato? In altri termini: Google riesce a “capire”, al momento della scansione di una pagina, se un testo è stato scritto da un essere umano oppure no? La pratica (e la logica) suggeriscono di sì: esistono sia dei criteri di IR (Information Retrieval) atti a “capire” se un testo è stato copiato/scopiazzato in automatico da un algoritmo, sia i cosiddetti quality rater che sono degli esseri umani addetti a valutare la qualità dei risultati di ricerca di Google. Eppure ogni anno si continuano a registrare casi in cui pagine web generate casualmente – soprattutto di e-commerce, ma anche di blog – ricevono un sacco di visite, e riescono anche a sbancare in termini di posizionamento sui motori. Il problema, evidentemente, è legato al fatto che alcuni criteri di verifica non sono perfetti e anche al più attento rater può senza dubbio sfuggire qualcosa.

La questione dei cosiddetti SPINTAX (article spinning)- ovvero i software usati dai SEO black hat per generare i contenuti delle pagine in automatico – sembra essere al centro di una polemica piuttosto marcata: da un lato la comunità di SEO più intransigente sembra disprezzare a priori un tipo di pratica del genere, non fosse altro che il lavoro di ottimizzazione sui motori di ricerca richiede da sempre fatica, sudore, pazienza, approvazione di backlink, giusta mentalità e via dicendo. Dall’altra qualche SEO con skill di programmazione – oltre che leggermente più scaltro – riesce a scalare le SERP senza fare null’altro che generare pagine web con testi casuali, così come raccontato da TagliaBlog giorni fa (vedi: Come posizionare dei contenuti generati automaticamente… e candidarsi al Macchianera Italian Awards!), riuscendo sia ad arrivare in prima pagina che addirittura a candidarsi ad un notissimo contest per blogger.

Verrebbe da chiedersi, a questo punto, cosa (e perchè lo) leggano gli italiani, perchè se sono loro i primi a non accorgersi che un testo è generato da un algoritmo (ovvero da una procedura che “pesca” da insiemi di parole a caso, a formare frasi più o meno semanticamente corrette) e non scritto da un ghost writer o chi per lui, non si capisce come potrebbe accorgersene una procedura automatica di valutazione di una pagina a scopo di ranking sui motori. Il futuro del SEO sembra riservare quindi, in tal senso, delle novità in prospettiva, visibili soprattutto nel momento in cui qualche grosso brand risulterà danneggiato da una pratica di questo tipo: bisognerà tenere gli occhi aperti, e vedere a quali sviluppi Bing, Yahoo! e Google sapranno arrivare per arginare queste pratiche.

condividi!

AUTHOR - WEB Hunter

No Comment

0

Post A Comment