Blogspot: ottimizzazione seo archivi

Oggi vediamo come ottimizzare l’indicizzazione di un blog su piattaforma blogspot (blogger per intenderci) con 3 righe di codice. L’idea è nata da una discussione con il buon http://www.sbrana.com/www.sbrana.com/ e dopo la visione del video omaggio di Madri sull’effetto Tag Excess.

L’obiettivo è quello di limitare il numero di pagini inutili da indicizzare. Se avete 1000 tag, i motori dovranno indicizzare 1000 pagine con indici di articoli che puntano sempre a quegli articoli: non è bene.

Su blogspot non si può fare molto, a causa degli evidenti limiti del blogger template, ma qualcosina si: andiamo a dire a google di non indicizzare le pagine archivio, ma solo di analizzarle. Per fare questo usiamo il costrutto <b:if>…</b:if> e verifichiamo il valore del pagetype. Nel caso in cui la pagina sia un archivio evitiamo la indicizzi:

<b:if cond='data:blog.pageType == &quot;archive&quot;'>
<meta content='noindex, follow' name='robots'/>
</b:if>

Purtroppo il pageType assume i valori solamente: item, archive e index. Ho provato a usare anche tag ma non lo riconosce.

Su WordPress il tutto si risolve con il plugin ALL in on SEO pack!

Loading Facebook Comments ...

9 pensieri su “Blogspot: ottimizzazione seo archivi

  1. alessio

    Come ti ho scritto in chat, a mio avviso può avere un senso solo nel caso in cui venga fatto un uso veramente massiccio dei tag, soprattutto nel caso in cui i tag siano relativi a sinonimi o, comunque, lemmi che di fatto comportano la creazione di url diverse con stesso contenuto.
    Es. “PageRank” e “Page Rank”

    Rispondi
  2. yuri

    Sai una cosa merlinox,
    all’inizio anche io avevo bloccato tutto l'”inutile” poi però guardando i robots di altri blog trafficati non vedevo restrizioni di nessun tipo, dopo la guida in inglese sui falsi miti dei webmaster che veniva detto che il contenuto duplicato non è penalizzante io ho tolto i noindex/nofollow e non ha fatto male.

    Di recente poi (non trovo il post adesso), veniva detto da un dipendente google nel forum webmaster che googlebot è abituato alla “fisionomia” dei blog e sa qual’è duplicato se c’è e quale no.

    Personalmente ho notato che più lasci passare il google bot meglio è, anche in termini di visite, io blocco solo le directory admin/plugin/ecc. su wp (anche con .htaccess) e non trovo duplicati a parte le descriptions delle categorie ma non è grave.

    N.B.
    I title se duplicati bisogna cambiarli.

    Mi fermo qui altrimenti faccio un post per il tuo blog invece che per il mio 🙂

    Rispondi
  3. Merlinox Autore articolo

    Condivido quasi tutto quello che hai detto. Sono convinto che le varie tecniche di seo sculpturing etc. siano “raffinatezze” per avere proprio quel “turbo” in più quando si è arrivati al top a livello di contenuti e ottimizzazione.
    Adesso comunque ho provato con il follow,noindex anche qui… ma anche solo per il fatto che non mi piace avere le pagine di archivio in SERP.

    Ciao caro!

    Rispondi
  4. anto

    Ciao, io ho notato che per post vecchi di 6 mesi o più, se effettuo una ricerca inserendo le prime righe del testo di un post, nelle serp appare il post ma subito sopra appare la pagina archive del mese in cui ho pubblicato il post, mentre il mio post appare sì indicato ma come elemento rientrante verso destra. Secondo te sono nella situazione che tu hai presagito, cioè google considera primario il testo del post che trova nella pagina archive e penalizza il mio post come duplicato?

    Rispondi
  5. Pingback: Blogspot: ottimizzazione seo archivi | Siti Web Livorno

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *