Wordpress, PHP, CSS e Javascript tips!

Negative SEO. Il demone che distrugge la popolarità dei siti web

di  /  A- A A+
  Attenzione! Questo post non è stato più aggiornato da almeno 90 giorni. Potrebbe contenere dati, notizie e scripts non aggiornati o non in linea con gli attuali standard!

negative-seoIl negative SEO non è una leggenda, ma è una dura e concreta realtà. Si tratta di un sistema attraverso il quale si mira a distruggere la concorrenza web, attraverso una serie di strumenti che determinano il crollo della popolarità del sito o del blog.

Spesso, accade che chi fa negative SEO ricatti il sito interessato, minacciandolo di far crollare la popolarità del sito se non si paga una certa somma di denaro. Un vero e proprio reato che può essere denunciato alle autorità locali.

Ma quali sono questi strumenti deleteri per il nostro sito web? Ce ne sono diversi. I più importanti e influenti sono:

  1. L’acquisto di link che da siti di dubbia qualità rimandano al tuo sito web. In tal caso, i backlink di pessima qualità fanno “cattiva” pubblicità al sito, e Google penalizza quel sito nell’indicizzazione.
  2. Moltiplicare i contenuti del tuo sito o blog. Un’eccessiva presenza (ingombranza) dei tuoi contenuti, copiati e ricopiati su siti di infima qualità, comporta una cattiva reputazione e un duro colpo all’indicizzazione. Google vede spam.
  3. Modifica del file robots.txt o inserimento di un file robot.txt dannoso, affinché venga bloccato l’accesso allo spider di Google. In tal caso, si tratta di un vero attacco hacker che impedisce a Google di accedere ai contenuti del tuo sito.
  4. Lanciare attacchi DDOS al server ove è ospitato il tuo sito. In altre parole, molte richieste al tuo sito che creano errori 500, e conseguentemente un crollo della popolarità del sito.

Non esistono rimedi definitivi contro questa forma di concorrenza sleale. Esistono degli accorgimenti più che altro volti a prevenire che attacchi di questo genere si verifichino o creino troppi danni all’immagine del nostro sito web.

Prima di tutto, è necessario monitorare costantemente il proprio sito web attraverso il tool di Google (strumenti per i webmaster) per verificare i siti che linkano al nostro sito. Dopo di che, se ci rendiamo conto di essere oggetto di malevole attenzione da parte di siti sospetti, effettuare il disconoscimento dei link (disawoved link), la cui efficacia è comunque tutta da dimostrare.

In secondo luogo, è opportuno creare (se non l’abbiamo già fatto) un file robots.txt (qui spiego come creare un file robots.txt ottimizzato per WordPress) che garantisca a Google e agli altri motori di ricerca un pieno accesso al sito web.

Terza cosa da fare, è proteggere i propri contenuti, affinché non vengano copiati impunemente. Il che non è facile, soprattutto quando si ha a che vedere con siti web spazzatura hostati in qualche server straniero. Esiste un sito web che verifica se i nostri contenuti sono stati copiati (CopyScape) e da chi.

Purtroppo (o per fortuna) Google ha dismesso i microformati per l’autore (authorship) e dunque non è più possibile “autenticare” i contenuti del nostro sito web, relazionandoli al nostro profilo Google+. E non esiste – per quanto io ne sappia – altro metodo per rendere i nostri contenuti a prova di violazione del copyright.

A conti fatti, il negative SEO esiste ed è estremamente dannoso per i nostri progetti web, ma è chiaro che non dobbiamo diventare paranoici.

© 2016 Il Jester – Note Legali
Archiviato in: SEO  /  Tags: , ,