Negative SEO. Il demone che distrugge la popolarità dei siti web

Questo post è più vecchio di 3 anni. Potrebbe contenere informazioni non aggiornate.

Il negative SEO non è una leggenda, ma è una dura e concreta realtà. Si tratta di un sistema attraverso il quale si mira a distruggere la concorrenza web, attraverso una serie di strumenti che determinano il crollo della popolarità del sito o del blog.

Spesso, accade che chi fa negative SEO ricatti il sito interessato, minacciandolo di far crollare la popolarità del sito se non si paga una certa somma di denaro. Un vero e proprio reato che può essere denunciato alle autorità locali.

Ma quali sono questi strumenti deleteri per il nostro sito web? Ce ne sono diversi. I più importanti e influenti sono:

  1. L’acquisto di link che da siti di dubbia qualità rimandano al tuo sito web. In tal caso, i backlink di pessima qualità fanno cattiva pubblicità al sito, e Google penalizza quel sito nell’indicizzazione.
  2. Moltiplicare i contenuti del tuo sito o blog. Un’eccessiva presenza (ingombranza) dei tuoi contenuti, copiati e ricopiati su siti di infima qualità, comporta una cattiva reputazione e un duro colpo all’indicizzazione. I motori di ricerca vedono spam.
  3. Modifica del file robots.txt o inserimento di un file robot.txt dannoso, affinché venga bloccato l’accesso allo spider dei motori di ricerca. In tal caso, si tratta di un vero attacco hacker che impedisce ai motori di ricerca di accedere ai contenuti del tuo sito.
  4. Lanciare attacchi DDOS al server ove è ospitato il tuo sito. In altre parole, molte richieste al tuo sito che creano errori 500, e conseguentemente un crollo della popolarità del sito.

Non esistono rimedi definitivi contro questa forma di concorrenza sleale. Esistono degli accorgimenti più che altro volti a prevenire che attacchi di questo genere si verifichino o creino troppi danni all’immagine del nostro sito web.

Prima di tutto, è necessario monitorare costantemente il proprio sito web attraverso il tool di Google (strumenti per i webmaster) per verificare i siti che linkano al nostro sito. Dopo di che, se ci rendiamo conto di essere oggetto di malevole attenzione da parte di siti sospetti, effettuare il disconoscimento dei link (disawoved link), la cui efficacia è comunque tutta da dimostrare.

In secondo luogo, è opportuno creare (se non l’abbiamo già fatto) un file robots.txt che garantisca a Google e agli altri motori di ricerca un pieno accesso al sito web. Se vuoi saperne di più di robot.txt, qui viene spiegato.

Terza cosa da fare, è proteggere i propri contenuti, affinché non vengano copiati impunemente. Il che non è facile, soprattutto quando si ha a che vedere con siti web spazzatura hostati in qualche server straniero. Esiste un sito web che verifica se i nostri contenuti sono stati copiati (CopyScape) e da chi.

Purtroppo (o per fortuna) Google ha dismesso i microformati per l’autore (authorship) e dunque non è più possibile autenticare i contenuti del nostro sito web, relazionandoli al nostro profilo Google+ (che nel 2024 non esiste più). E non esiste – per quanto io ne sappia – altro metodo per rendere i nostri contenuti a prova di violazione del copyright.

A conti fatti, il negative SEO esiste ed è estremamente dannoso per i nostri progetti web, ma è chiaro che non dobbiamo diventare paranoici.

Ultime dal blog

Visualizzare i commenti recenti, con avatar, usando uno shortcode

Pubblicato da Il Jester il 20 Giugno 2024

Creazione di un tema figlio su Wordpress e Classicpress

Pubblicato da Il Jester il 19 Giugno 2024

Usare il markdown per scrivere post su Wordpress e Classicpress

Pubblicato da Il Jester il 18 Giugno 2024

Gestire la query string di un url con Javascript

Pubblicato da Il Jester il 16 Giugno 2024

Sicurezza. Disabilitare XMLRPC sul vostro sito Wordpress

Pubblicato da Il Jester il 15 Giugno 2024

Gravatar. Un plugin per tutelare la privacy

Pubblicato da Il Jester il 14 Giugno 2024