[metaslider id="11370"]

Penalizzazioni Seo

Ban, Penalizzazioni Seo e Punizioni Varie del Dio Google e Motori di Ricerca

Ban, Penalizzazioni Seo e Punizioni Varie del Dio Google e Motori di Ricerca

I vari motori di ricerca hanno avuto una grande evoluzione al fine di combattere fenomeni di spam e restituire agli utenti della rete contenuti in linea con le ricerche eseguite.

È quindi importante conoscere gli aspetti che possono creare penalizzazioni di un sito.

Per penalizzazione di un sito si intende una situazione in cui un motore di ricerca non vede di buon occhio un sito in quanto questo adotta tecniche scorrette per posizionarsi nella serp e così viene declassato in modo da mandare davanti a lui risultati in linea con le reali esigenze degli utenti.

Il sito può essere anche bannato, ossia totalmente rimosso dalla serp.

Esistono penalizzazioni manuali, che vengono fatte da tecnici del motore di ricerca e penalizzazioni automatiche che vengono appunti fatte automaticamente in conseguenza al fatto che l’algoritmo che scansiona il sito ha trovato un’anomalia ed è programmato per reagire in un determinato modo, ad esempio togliere visibilità al sito per alcune parole chiave.

Nella storia della rete e quindi dei motori di ricerca, sono stati innumerevoli i tentativi di manipolare artificiosamente il posizionamento di un sito web, tra le tante tecniche vi è quella basata sui link.

Queste tecniche sono usate sin dall’inizio dell’introduzione dei motori di ricerca.

In sostanza veniva creato un gruppo, una rete di siti linkati tra loro con migliaia di collegamenti.

Attualmente i motori di ricerca riescono agevolmente a identificare questo tipo di attività e a penalizzare i siti che la utilizzano.

Una variante di questa tecnica è l’acquisto di link, con il problema però che questi non sono coerenti (come contenuto) con il sito a cui collegare, di qui la penalizzazione.

Un’altra tecnica consiste nel creare un dominio cosiddetto “ombra” che attira traffico grazie a parole chiave importanti contenute nel dominio stesso (google da molta importanza al potere descrittivo di un dominio) e indirizzare tale traffico ad un altro sito.

Anche in questo caso una volta identificato l’artificio google penalizza o addirittura esclude i siti dalla serp.

Un’altra tecnica non vista di buon occhio dai motori di ricerca è il cosiddetto “Cloaking“, che consiste nel mostrare agli spider un sito in versione ottimizzata, lo stesso sito però quando viene visitato dall’utente si mostra molto diverso.

La scoperta di questo espediente comporta la rimozione dalla serp.

In passato, ora molto meno, si faceva poi un uso eccessivo di parole chiave, ne derivava quindi un uso strumentale di parole chiave ripetute più e più volte al fine di ottenere attenzione da parte del motore di ricerca.

Venivano create addirittura pagine apposite formate da testo nascosto nel quale venivano disseminate innumerevoli parole chiave.

Attualmente questa pratica viene rilevata con discreta facilità e comporta la penalizzazione o rimozione dal motore di ricerca.

Anche la pratica di costruire pagine ottimizzate esclusivamente per il motori di ricerca invece che per gli utenti al fine di portare traffico ad un sito è una pratica da evitare in quanto viene penalizzata.

Per questa strategia vengono utilizzati appositi tool per creare pagine autogenerate concentrate su una parola chiave  o frase, non c’è una logica e non è di alcuna utilità per gli utenti.

Un’altra strategia è copiare identico il contenuto di una pagina molto visitata al fine di ottenere traffico, questo traffico verrà poi dirottato dalla pagina duplicata alla pagina alla quale effettivamente si vuole portare traffico.

Come puoi ben capire queste tecniche non sono di alcuna utilità per i visitatori quindi appena rilevate vengono punite con penalizzazioni ed esclusioni.

Il concetto è semplice, le pagine che si creano devono avere contenuti originali e coerenti con il tema del sito e ottimizzate per utenti interessati al tema del sito stesso.

La tecnica dell’uso del testo nascosto è anch’essa punita.

Consiste nell’inserire testo, ad esempio in home page, pieno zeppo di keywords e a questo testo gli si da lo stesso colore dello sfondo in modo che non si veda ma venga comunque rilevato dal motore di ricerca e vada ad influire sul posizionamento.

Attualmente viene scoperta facilmente e il sito viene naturalmente penalizzato.

Attualmente i motori di ricerca rilevano questa tecnica anche se il colore del testo è solo leggermente diverso da quello dello sfondo, se la grandezza del font è vicina a zero, ossia testo piccolissimo.

La tecnica dei contenuti duplicati è chiaramente penalizzata, l’interesse del motore di ricerca è quello di restituire risultati coerenti con le ricerche e originali ed utili.

Quando due o più url presentano parti o addirittura pagine intere di contenuti della medesima forma i motori di ricerca sono oggi in grado di risalire all’originale, il più datato nel tempo e penalizzare il duplicato.

È una pratica da sconsigliare vivamente, è però abbastanza facile imbattersi nel problema.

Ad esempio se copi una pagina la metti nel tuo sito e citi la fonte, è comunque un contenuto duplicato.

Anche se la stessa pagina è riprodotta in più pagine dello stesso sito si va incontro al problema.

Se altri duplicano nostri contenuti verranno penalizzati invece loro in quanto il nostro contenuto è il più vecchio e il motore di ricerca lo rileva.

Nei forum con le varie citazioni il problema si può presentare spesso ma i motori di ricerca sono molto raffinati e riescono attualmente a “capire” se si tratta di un artefatto o si è nella regolarità.

Ad esempio nell’ecommerce tra commerciante e affiliato vengono duplicate le schede descrittive dei prodotti, nessun problema, i motori di ricerca ormai lo sanno, non penalizzano questo tipo di attività.

Quando si mette online un annuncio identico in siti diversi, potrebbe essere penalizzato, sarebbe meglio variare un po’ la forma mantenendo invariato il contenuto.

Alla luce delle considerazioni fatte e della facilità con cui i motori di ricerca attualmente riescono a individuare pratiche informatiche scorrette e non utili agli utenti è bene creare siti che puntino alla qualità e originalità dei contenuti nell’ottica di aiutare a soddisfare i bisogni degli utenti e utilizzare le tecniche Seo consentite al fine di ottenere un buon posizionamento duraturo nelle serp.