SEO vs Creative Commons

Cosa sia la SEO ormai penso lo sappiate tutti: per quelli rimasti un po’ indietro la SEO è quel filone della produttività web che si occupa di ottimizzare un sito per i motori di ricerca. Nel calderone SEO entrano comunque anche attività di promozione esterne al sito.

Creative Commons è invece un’insieme di licenze, che servono per tutelare e definire i diritti sui contenuti che vengono pubblicati. Alla base delle Creative Commons c’è la volonta di condividere il proprio materiale per il pubblico utilizzo, al più di sfumature quali la modifica dei contenuti o l’uso su siti commerciali (ricodo che un blog con ADSENSE non è più free, ma ha fini di lucro!).

Fatte queste premesse vi spiego perchè ho messo sul ring SEO e Creative Commons: tutta colpa del Panda! Chiaramente non parlo nè dell’antivirus nè del simpatico orsetto, ma del nuovo algoritmo di Google. Ancora in Italia non è arrivato ma moltissime testimonianze nel forum di Google sono garanzia che il nostro mega motorone di ricerca ha già fatto dei passi giganteschi contro i contenuti duplicati.

Il 70% (dato fittizio) delle segnalazioni di penalizzazione si risolve con un paio di ricerche con Google e la risposta: contenuti duplicati. Il problema è che i buoni o cattivi sono segnati sulla lavagna in modo piuttosto arbitrario. Big G. assegna la paternità dei contenuti in base a diversi fattori, tra cui il trust rank / page rank. Ma non vi è dichiarazione che la paternità sia assegnata al primo autore.

Nella pagina dedicata ai contenuti duplicati, ci sono molti indicazioni su come gestire i contenuti duplicati, nel caso di un proprio sito. Principalmente la politica è quella di usare il rel=canonical ed eventualmente il noindex. Ma c’è una frase che lascia perplessi:

Google non consiglia più di bloccare l’accesso dei crawler ai contenuti duplicati sul tuo sito web né con un file robots.txt né con altri metodi. Se i motori di ricerca non riescono a eseguire la scansione delle pagine con contenuti duplicati, non potranno rilevare automaticamente che tali URL rimandano agli stessi contenuti e pertanto dovranno effettivamente trattarle come pagine uniche e distinte.

Ma se tali contenuti sono in noindex, non dovrevvero essere invisibili al motore? Vabbè… soprassediamo. Il punto è un altro. Alla base delle licenze Creative Commons c’è la possibilità (quasi l’invito) di divulgare il materiale. Addirittura alcune delle licenze ne vietano la modifica. E la paternità dell’autore chi la dice a google? Un link? Potrebbe non bastare. Cito testualmente:

Google visualizzerà sempre la versione ritenuta più appropriata per gli utenti in ciascuna ricerca. Tale versione può essere o meno quella da te preferita.

Quindi? Il consiglio segue dicendo che è buona cosa di chiedere a chi duplica i contenuti di metterli in noindex! Aspettiamo a vedere le evoluzioni, ma tuteliamoci. Contenuti duplicati oggi vuol dire penalizzazione. Ed a essere penalizzato potrebbe essere l’intero sito.

Nel caso di penalizzazione, anche se alcuni non condividono la mia idea, per recuperare in fretta, potrebbe essere necessario rinunciare ai propri contenuti, cambiandoli o addirittura usare l’antibiotico “robots.txt”, come il grande Piersante lo nomina.

Nel caso di necessità di condivisione: citare piccole frasi, rimandare al sito con un link e parafrasare. Mi sa che prossimamente il mondo del nanoblogging si rimpierà ancora di più di ottimi parafrasisti e riassuntisti! Concludo con una riflessione: se è vero che Panda colpirà in modo deciso le content-farm, o meglio gli aggregatori, chi produce quotidianamente buoni contenuti, teoricamente, dovrebbe essere avantaggiato vedendo “eliminare” chi glieli clonava.

(aggiornamento 22:3o) L’amico Erriko nei commenti chiede come potersi tutelare per dire a Google che si è gli autori dell’articolo. In realtà degli strumenti ci sono e solvono la funzione di ping o pinging. In pratica, in un determinato formato, avvisano Google o altri servizi dell’avvenuta pubblicazione di un articolo. Tali servizi dovrebbero essere “alzati” immediatamente alla pubblicazione di un articolo.

La piattaforma WordPress già prevede queste funzionalità e possono essere potenziate anche pingando su Google Webmaster Tools la sitemap aggiornata, ogni nuovo articolo pubblicato, e usando il nuovo protocollo Pubsubhubbub, già usato automaticamente da FeedBurner (Publicize > Pingshot).

Su Twitter @jul_x mi domanda che fare in caso si subisca una copia: la prima cosa da fare è chiedere cortesemente vengano rimossi. Se non si viene considerati si passa alle maniere forti. Da parte sua Google ha un form di richiesta per fare rimuovere contenuti di terzi, si chiama DMCA (digital millenium copy act – è la legge di tutela copyright americana). Certo che se uno pubblica contenuti in Creative Commons, non ha molto da ridere… o no?

Consiglio comunque anche il post evergreen dell’amico Alberto: Stop al plagio!

Loading Facebook Comments ...

13 pensieri su “SEO vs Creative Commons

  1. Erriko

    Beh la cosa è un po’ ambigua quantomeno. A questo punto passerebbe anche il fatto che se un mio post viene ripubblicato ad esempio da un sito con trust maggiore io passo per il “copione”, no? Non è che è bella come cosa…

    Rispondi
  2. Merlinox Autore articolo

    @Erriko non è così matematico. Ma potrebbe esserci il rischio. Per tutelarsi magari potrebbe essere il caso di valutare sistemi di ping automatico, come quello che offre feedburner. Magari aggiorno il post con i dettagli.

    Rispondi
  3. bblogger

    Quindi questo Pubsubhubbub è già incorporato su feedburner? ho provato a fare il test online e mi risultava l’attributo hub, il problema è che il ping non è avvenuto e un post di 8 ore fa non è ancora stato visto di google

    Rispondi
    1. Merlinox Autore articolo

      Cosa intendi @bblogger per “mi risultava l’attributo hub”? Come fai a sapere che il ping non è avvenuto e che google non l’ha visto? Il fatto che non abbia indicizzato non significa però che non lo veda.

      Rispondi
  4. bblogger

    Ieri sera ho fatto il test con il tool di Pubsubhubbub
    (https://pubsubhubbub.appspot.com/publish- sulla base di quanto ho letto su questo articolo http://www.ilsoftware.it/articoli.asp?id=6011) perchè sto cercando di capire come recuperare un blog (di cui ho scritto nel forum webmaster di google, trovando anche i tuoi interventi) penalizato da contenuti duplicati per via di un aggregatore. L’attributo inserito al fondo del link, da quello che ho letto, dovrebbe garantirmi per tutelare la paternità del mio post, ma il non averlo trovato in rete con ricerche dirette (il nome del titolo) non mi ha convinta. Da quello che avevo letto infatti il Pubsubhubbub doveva rappresentare anche una difesa per la tutela dei contenuti, permettendo di identificare il primo ping, ma non ne sono più tanto sicura perchè a quanto pare è solo uno strumento di google per evitare di scandagliare il web alla ricerca di nuovi articoli da mostrare poi comunque dove vuole lui, sul sito fonte o su qualsiasi sito ben posizionato che lo ricopia.

    Rispondi
    1. Merlinox Autore articolo

      Teoricamente il funzionamento è proprio quello. Il problema è che se sei in penalizzazione, il comportamento di google nei tuoi confronti potrebbe non essere “legacy”. Poi bisogna capire se ti ha penalizzato l’url o il dominio. Purtroppo il discorso dei contenuti duplicati è una gran rogna, specie se non si ha la possibilità di rimuovere i siti con le copie. Quando parlavo di soluzione dratica con robots.txt, non lo dicevo per caso. E vedo anche difficile che google riassegni la paternità dei vecchi post, al più capisca che sono aggregatori, ma ribadisco: secondo me fai prima a ravvederti te nel caso in cui gli aggregatori non ti cancellino i post.

      Rispondi
  5. bblogger

    Ho già rimosso i feed e quindi materialmente non ci sono più le copie dei miei articoli in rete anche se ci sono ancora i link indicizzati da google (poi aprendo il collegamento il contenuto non c’è e la pagina rimanda a un link inesistente. Stavo aspettando qualche giorno per vedere l’evolversi della situazione, continuando a pubblicare per tenere il blog attivo. C’è da dire che anche se poche, qualche visita da google mi arriva ancora per cui non credo che mi abbia penalizzato il blog ma i singoli post. Ho anche un problema di errore 404, non so se la cosa è legata o meno. Se riesco a fare ripartire almeno i nuovi post potrei sempre eliminare i vecchi e ripubblicarli

    Rispondi
  6. bblogger

    Infatti le pagine di quel sito sono ancora indicizzate su google ma se apri il link trovi una pagina bianca con un collegamento che rimanda a pagina irraggiungibile (about:blank) ; sto cercando di capire come google interpeterà queste pagine con i link vuoti, se ne accorgerà e li rimuoverà, penalizzando l’aggregatore per assenza di contenuto? Forse dovrei segnalare quelle pagine a google (con un ping? con la pagina segnala sito di google?) mi muovo molto cautamente dopo la penalizzazione del mio blog per evitare ulteriori danni. Comunque non è il mio blog principale a essere stato danneggiato da questo aggregatore avendo un pr che mi difende, il blog penalizzato è uno che aveva perso il pr con il passaggio a dominio.

    Rispondi
  7. Merlinox Autore articolo

    @bblogger il fatto che non rispondano 404 non è proprio un bene, però già che le pagine siano state rimosse (contenuti) va bene. Richiedi la riconsiderazione e spiega esattamente ogni passaggio. In bocca al lupo!

    Rispondi
  8. Pingback: Cloni e Google fail

  9. Pingback: Contenuti duplicati

  10. Pingback: SEO o Creative Commons?

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *