Google Penalizzazione o distrazione?

Stavo analizzando le statistiche di questo blog. Cosa che purtroppo faccio raramente: per me Crossover è più una valvola di sfogo e un quaderno degli appunti, che un sito su cui fare marketing o altro.

In ogni caso noto un violento calo di accessi. Cerco di capire il perchè cercando nelle fonti di traffico. Noto che il problema è lì. Ma che posso focalizzarlo ancora meglio. Google ha avuto un calo impressionante. Qualcosina ha perso anche da MSN. Ma perchè?

Visto il grafico il primo pensiero è stato "ca**o  mi hanno penalizzato". Ma poi ho pensato un attimo e mi sono reso conto che non avevo fatto nulla di male, almeno qui.

Verifico le parole chiave e nelle prime 10 niente di particolare: alti e basi. Estendo alle prime 100 e mi rendo conto di avere perso 2-300 parole chiave dalla long tail. Quelle "inutili" parole che portano 1 visita al giorno ma che insieme sono la base del successo di un sito e comunque portano centinaia di visite.

Cosa fare? La lettura dei report delle chiavi non mi porta niente. La lettura storica nemmeno. C’è solo questa cascata e poi la situazione rimane catastrofica.

Da blog.merlinox.com

Inizia così la saga della penalizzazione…

  1. Chiedo aiuto a quel gran internetmarkettaro di Tommaso. Subito identifica da gran professionista quale è il problema e mi chiede "’zzo hai combinato?". Guardiamo insieme le operazioni online su quel periodo ma niente da fare. Non troviamo nulla.
  2. Passo in rassegna il sito grazie ai Google Webmasters Tools. Vedo che ho parecchi errori 404: molti dovuti a pagine sbagliate del vecchio blog, molti dovuti a problemi con i permalink. Correggo un po’ di post e metto (via quel santo di Enrizo) un po’ di regole nel .htaccess. Temo però che il problema non sia qui.
  3. Nel frattempo il buon Paolo mi contatta per verificare un suo post. Su cosa? Sulle google penalizzazioni! Dentro di me penso "che fa mi prende per il cu….?". Invece no. Leggo il suo ottimo post e procedo seguendo i suoi consigli. Anche se lui via IM punta il dito sul mio lato oscuro. Allora da bravo SEO integralista apro Xenu e cerco eventuali miei link che puntano a siti porcelloni o non graditi da google. Anzi siti OT rispetto al web2.0! Metto un po’ di nofollow e un po’ di external. Un lavoraccio lungo e rovinoso. Scopro però che dal report di Xenu, guardando le proprietà di una riga di un External posso vedere da dove IO lo link (outbound link).
  4. Senza perdere tempo sfrutto anche un nuovo amico: Alessio the Real Seo! Da remoto inizia a farmi l’analisi al sito e mentre io continuo a girovagare tra i link mi dice "Hai per caso un plugin su wordpress per i tag"? Non capisco la domanda ma dalla tensione sono quasi propenso a pensare che questo non ci capisca una mazza… bel personaggio sono! Lui continua ad analizzare e io girovago per i miei SEO plugin & Co….

Morale della favola

Basta gridare al lupo al lupo ogni problema. Questa volta Google non c’entrava proprio nulla. E mi scuso pubblicamente per avergli inviato una email di motivazioni… mea culpa, mea grandissima culpa. Grazie ad Alessio mi sono reso conto che avevo problemi al robots.txt generato dal plugin delle sitemap per google settato molto molto male: avevo detto di non inserire categorie, archivi e tag. Tale settaggio si è riversato sulla funzione "crea robots.txt". Durante l’analisi ho notato anche alcuni permalink con caratteri strani che quando arrivavano in Sitemap ne causavano l’uscita dalla conformità del formato!

Ho scoperto poi che anche su All in One SEO pack avevo dei problemi: le pagine dei tag, categories, archive erano NO INDEX. Gli avevo detto di non indicizzare.

Altro che perdere la long tail… avevo detto a google che tutta la roba che non è in homepage o quasi non la doveva leggere.

Con vergona ho imparato la lezione e mi permetto però di lanciare un monito: basta puntare il dito sempre su Google e su teorie fantascientifiche. Basta cercare il pelo del no-follow per ottimizzare il peiggeranche… ci sono delle cavolate che facciamo molto molto più grosse e soprattutto CERTE.

Grazie a tutti!

 ps: appena finito di fare quanto descritto per 5 minuti non ero più riconosciuto da google… caso o avvertimento… 🙂

Loading Facebook Comments ...

27 pensieri su “Google Penalizzazione o distrazione?

  1. Lauryn

    eheh menomale, l’importante è capire i propri errori.
    io invece ho notato nel mio italianwebdesign un calo dei commenti, più che delle visite, ma penso che questo sia questione di come pongo i testi del post. staremo a vedere.
    ancora complimenti per il tuo blog 😉

    Rispondi
  2. Lauryn

    dimenticavo: tu hai aggiornato la All in seo pack? io l’ho fatto e ho scoperto che non funzionava più correttamente. una su tutte non modificava più i title delle pagine.
    tu tutto a posto a parte questa distrazione manuale?

    Rispondi
  3. Merlinox Autore articolo

    @Napolux: che il SEO non sia una scienza esatta sono d’accordo. C’è chi adotta un approccio scientifico ma le variabili in gioco sono troppe e soprattutto non costanti nel tempo. L’unico modo dei migliori SEO è fare dei test isolando quanto più casi esterni possibili. Ma se a metà test google cambia le regole sotto il c**o il test non è valido: magari però non saprai mai del cambiamento!

    Per quanto riguarda contenuti duplicati sono d’accordo. Addirittura sarebbe corretto non avere nemmeno link duplicati nella stessa pagina.

    E’ fondamentale però che le pagine abbiano una buona raggiungibilità. Da me c’era il noindex su archivi, tag e categorie. Il povero mr. G temo non arrivasse più ai vecchi post al più di fare (ogni tanto a mano) una bella sitemap di archivio. In quel caso forse potresti rimuovere le pagine di archivio.

    Rispondi
  4. Merlinox Autore articolo

    @Lauryin: grazie per i complimenti, ma ti garantisco che sono troppi 😉
    Io con la seo pack non ho avuto problemi o almeno non mi ha mai messo male i titoli… almeno spero 🙂

    Per quanto riguarda i commenti il problema potrebbe essere che magari commentano sui social. No?

    Rispondi
  5. alessio

    Seopippe, spesso ce ne facciamo tante, troppe.
    Come per quanto riguarda i contenuti duplicati, soprattutto se interni.
    Per dirne una: gli e-commerce, soprattutto se generati con alcune piattaforme, sono strabordanti di contenuti duplicati, ma non per questo subiscono “penalizzazioni”.

    Nel caso specifico di questo blog, i noindex e i nofollow erano veramente TANTI… ora non è detto che il problema fosse quello, ma personalmente non ho mai riscontrato crolli di accessi per categorie o tag indicizzati. 🙂

    Detto questo, stiamo a vedere.

    Rispondi
  6. DvD

    Ottimo articolo come sempre, me lo sono segnato su delicious per un futuro riferimento.

    Riflettevo anche però sul difficile equilibrio tra il rendere il blog SEO e altre questioni come le performance, perchè non vorrei sbagliarmi, ma togliere il no-index dagli archivi, tag e quant’altro era una mossa consigliata per ‘allegerire’ il carico sul server e quindi rendere il blog più veloce.

    Boh (Il SEO è un’arte in costante evoluzione e mi fa morire quelli che mi dicono -uno fresco stamattina- mi ha fatto il sito tizio -età 14 anni-, ma nessuno lo trova su internet, come mai?)

    Byez

    Rispondi
  7. Merlinox Autore articolo

    Diciamo che pare ci siano degli spider molto violenti nell’accesso al sito. Ma non è googlebot.
    A quanto ho capito nofollow e amici vari servirebbero per concentrare il pagerank… ma ripeto secondo me sono finezze, oltretutto da provare e confermare.

    Nel mio caso google non arrivava ai post più vecchi. O se ci arrivava era troppo il livello di profondità. Punto.

    Rispondi
  8. k76

    Sculpting Page Rank
    http://www.etechs.it/scuplting-pagerank-perche-farlo-ovvero-migliorera-il-vostro-pagerank/

    l’operazione di mettere nofollow e noindex server a verticalizzare il sito, a mettere i motori di ricerca in condizione di riconoscere un contenuto da una directory.

    ora in questo blog se togli tutti gli “indici” (archivi, tag, categorie) il motore di ricerca per i post più vecchi deve andare attraverso la home page, quindi seguire le pagine /page/1/ … /page/2/ etc etc, ma come sappiamo molto bene, avere una struttura così tanto verticale è molto pericoloso.

    Forse se i tuoi post fossero più “intralinkati” avresti più possibilità di sopravvivere, ma anche così col tempo perderesti i post più vecchi.

    per ovviare al problema dei post vecchi c’è un plugin che ti mette in home page un post pigliato a caso da quelli vecchi, a favore dei motori di ricerca e degli utenti nuovi che vorrebbero conoscerti meglio.

    il plugin è scritto da un caro amico blogger 🙂
    http://www.danielesalamina.it/advanced-random-post

    io sul mio ho fatto la prova di verticalizzare i contenuti…. non è andata molto bene. ho perso il 20% del traffico nel giro di 2 mesi. sig

    Rispondi
  9. Merlinox Autore articolo

    Secondo me una soluzione alternativa potrebbe essere quella di blindare gli archivi e produrre mensilmente o settimanalmente delle sitemap di archivio.

    Rispondi
  10. Pingback: Il meglio della settimana - 87 | Napolux.com

  11. fradefra

    Secondo me una cosa importante è andare a vedere cosa i vari plug-in di WordPress e Movable Type metteno nlle pagina, osservando la pagina lato browser.

    I TAG possono essere distruttivi o utilissimi in funzione di come sono gestiti. In alcune situazioni, il TAG è gestito con un sistema che crea di fatto ridondanza di contenuto e contenuto duplicato, il che bene non fa mai, al posizionamento. In questi casi, meglio togliere.

    Stessa cosa coi nofollow. Noi sui nostri blog abbiamo molti interlink che presto sistemeremo, perché non essendo interessati al posizionamento di yoyoformazione.it non ci siamo mai messi a fare una sana ottimizzazione. Chissà, forse un giorno troveremo il tempo. Però so che gli errori ci sono e alcuni nofollow interni andrebbero inseriti.

    Concordo sullo spirito del post. Troppo spesso ce la prendiamo con Google, solo perché non abbiamo osservato attentamente il codice delle pagine 🙂

    Rispondi
  12. Merlinox Autore articolo

    @fradefra: grazie francesco del contributo. Quando parli di tag ti riferisci ai metatag o a i tag del blog?
    Se sono quelli del blog teoricamente dovrebbe riconoscerli come tali con il rel=”tag” che usa anche lui in blogger.

    Rispondi
  13. Pingback: La lunga coda di global translator plugin per wordpress Etechs

  14. Pingback: Gioxx’s Wall » Blog Archive » Best of Week #30

  15. Merlinox Autore articolo

    Alla fine temo che il casino sia stata l’impostazione errata dei noindex nel plugin che genera la sitemap. Il problema è che era la longtail e temo che difficilmente google me la reindicizzerà.

    Le ca**ate si pagano, ma servono come esperienza. O almeno spero 🙂

    Rispondi
  16. Pingback: Xenu Sitemap Generator | MrX

  17. Pingback: Microsoft e SEO Keyword | MrX

  18. Pingback: SEO: la penalizzazione è finita

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *