Il compito dato al Panda è quello di scovare e penalizzare siti con contenuti di bassa qualità o con pagine sottili, che non offrono nulla al visitatore, e che occupano una posizione di rilievo grazie ad un attività Seo che per diversi anni si è incentrata sul Title, e Backlink con anchor text “studiate a tavolino” .

Dal 12 agosto Google ha introdotto anche in Italia un nuovo modello di tassonomia con l’implementazione di un “filtro” all’algoritmo che ha il compito di classificare ed ordinare per rilevanza, qualità dei contenuti, attinenza ai termini di ricerca, interi siti web.

Negli USA il nuovissimo modello di classificazione raggiunto con il Panda “ha fatto la sua comparsa” a Febbraio 2011, e l’introduzione “internazionale” del Panda Update (di qualche giorno fà - 12 agosto) e stata denominata come versione Panda 2.4. L'algortimo ,prima di essere implementato anche da noi, ha visto il susseguirsi di diverse versioni ed update che sono state rilasciate nelle varie geo-localizzazioni del motore di ricerca.

Questi gli update più importanti che Google ha rilasciato allo scopo di “combattere lo spam” provando a mostrare i siti più importanti e rilevanti ai primi posti del motore di ricerca:

•01/05/2003  “Fritz” update
•16/05/2003 “Florida” update
•25/012007 Googlebombs “defused” update
•20/02/2009 “Vince” update
•01/05/2010 “Mayday” update
•24/02/2011 “Panda”  update
•10/05/2011 “Panda 2.1? update
•16/06/2011 “Panda 2.2? update
•27/07/2011 “Panda 2.3? update
•12/08/2011 “Panda 2.4? update

Matt Cutts e Amit Singhal hanno evidenziato come Google compie più di cinquecento modifiche alla metodologia algoritmica di classificazione in un anno, ed il Panda Update è un grosso sforzo dell’azienda verso un Web migliore e più veloce, dove lui (google) vuole presentare sempre la “risposta migliore” per una determinata query.

Negli Stati Uniti, dopo diversi dibattiti nei forum lunghi ben 6 mesi, ancora non si capisce quali siano le nuove metriche, ed il perché di certe penalizzazione che si riscontrano nel numero di visitatori che il motore di ricerca rimanda ad un sito. Se utilizzi Analytics vai in “sorgenti di traffico -->motori di ricerca--> Google e confronta i dati ante 12 agosto con quelli post 12 agosto.

Che cos'è il Panda

Il Panda prende il nome da Navneet Panda, dipendente google di origine indiana e con un curriculum tutto da invidiare, che ha dato un notevole contributo allo sviluppo e all'implementazione del  filtro algoritmico che prevede di prendere a stangate siti web poco utili partendo da una analisi per pagina web. Se un numero di pagine viene bollato come poco “attraente” per un visitatore, vi è il serio rischio che tutto il sito ne subisca le conseguenze e che venga penalizzato.

Il celeberrimo motore di ricerca ha raccolto migliaia di dati statistici attraverso dei focus group, chiedendo a persone reali quali fossero gli elementi e gli attributi più importanti nella loro personale valutazione di un sito internet, e quali fossero i criteri che secondo loro rendono un sito affidabile, serio, sul quale si sentono "al sicuro".

Google, sulla base dei risultati pervenuti dalle ricerche, ha trasformato i pareri degli utenti in filtri algoritmici in grado di svantaggiare siti pessimi e porre  in primo piano quelli che curano molto la parte contenutistica, per dare un reale servizio al Web

 

Cosa fa il Panda

In poche parole, da un duro colpo verso il basso alle visite che un site riceve dal motore di ricerca. Ci sono siti che hanno perso più del 70% del loro traffico, altri solo pochi punti percentuali. La perdita di traffico è abbastanza netta e se guardi i grafici di analytics, confrontando le visite dell’agosto scorso con quelle attuali, già puoi farti un idea se il tuo sito con contenuti originali e completi ha conquistato qualche utente in più, o quello scopiazzato e brutto è andato giù inesorabilemente. Comunque, se il Panda ha toccato il tuo sito lo vedi, e come se lo vedi.

Persone del team di Google hanno sostenuto che l’implementazione internazionale interessava tra il 6% ed il 9% delle ricerche, contro il 12% nella versione Statunitense. In Italia, non pare sia cambiato molto nelle ricerche e non si notano miglioramenti rilevanti riguardo alla qualità delle serp, ma alcuni proprietari di siti anche grossi dichiarano di aver perso tra il 30-40% del loro traffico da Google; di contro, pochi quelli che hanno avallato un aumento rilevante dei visitatori
Considera che se il tuo sito faceva 200 visite, ed ora ne fa 120 o 130, potrebbe essere un calo stagionale. Ma se a metà settembre il trend di agosto prosegue qualcosa è successo, e sicuramente devi analizzare e rimboccarti le mani al fine di migliorare le tue pagine e, in generale, il tuo sito web.

Il Panda non è una penalizzazione fissa, ma si può recuperare. Purtroppo, sembra che i recuperi siano stati pochi e che comunque l'algoritmo venga lanciato e non funzioni in realtime. Se pensi di essere stato colpito, valuta che le migliorie che metterai in atto non avranno risultati rapidi.

A chi colpisce

Non si sà!! Ci sono casi strani che “infrangono la regola”, ed il motivo è tutto da scoprire. Anche buoni siti sono stati colpiti, mentre altri che non meritano assolutamente hanno conquistato posizioni e visite.

Il filtro punta ad individuare siti che hanno molte pagine di bassa qualità, corte, scritte male o duplicate. La novità essenziale di questo nuovo modo di classificare i risultati viene da alcune dichiarazioni del team del motore di ricerca che sostiene che ora "l’algoritmo è sociale" perché si serve dei giudizi dei visitatori, principalmente di chi utilizza gli strumenti che il motore propone, e che con queste traccia il suo percorso fatto di continue e ripetute ricerche, o presenze stabili su determinate pagine. Già la sua nascita, come scritto sopra, parte da una analisi compiuta su tester umani che hanno dato la base alla messa in opera di questo update. il gruppo di Google ha adattato un algoritmo che prendesse in considerazione "fattori umani".

Frequenza di ribalzo alta, bassa permanenza, poche pagine visitate dall’utente, sono un segnale che il motore sembra prendere in considerazione per penalizzare o premiare un sito web. Sono metriche che dipendono dal percorso che fa l'utente quando visita un sito web.

Joomla ed il Panda Update

Il Cms Joomla potrebbe risentire di questo aggiornamento perchè sensibile ad alcune cause che proverò ad elencare qui in basso. Indipendentemente dalla cura che ci si può mettere al proprio sito, la gestione delle url e dei contenuti duplicati non è per nulla semplice con Joomla. Occorre agire di robot.txt e di .htaccess con Seo nativo, o installare un qualche componente che ci permetta di agire per almeno "limitare i danni".

Andiamo a vedere, volutamente in modo superficiale (ci vorrebbe un articolo per ogni situazione), qualche caratteristica del cms che deve essere controllata, e se è il caso, “regolata”.

Contenuti duplicati

Quando si parla di contenuto duplicato si riferisce generalmente a blocchi sostanziali di testo all’interno dello stesso dominio o tra diversi domini.
La maggior parte delle volte è del tutto non intenzionale, o per lo meno non fatto con malizia, la generazione di pagine duplicate. Forum che generano pagine per ogni post, pagine dinamiche generate dal cms sono due esempi.
Altre volte invece i contenuti duplicati sono creati con l’intento di manipolare il posizionamento sui motori di ricerca o guadagnare più traffico per chiavi di ricerca diverse.

Dobbiamo stare molto attenti ai contenuti duplicati. Joomla (soprattutto la versione 1.5) crea diverse pagine duplicate generate dal “sistema gerarchico dei contenuti” e il rispettivo inserimento in categorie e sezioni. Non è raro trovare numerose pagine duplicate, e tutto sta nel saperle canonizzare.

Ricerche duplicate

Anche il sistema di ricerca di Joomla è carente a livello seo perchè genera title uguali e, spesso, pagine con contenuto quasi nullo. E’ una pecca che possiamo attenuare con un disallow tramite file robot.txt o serverdoci di qualche plugin che personalizzi almeno il title.

Contenuti similari o sottili

La gerarchia dei contenuti è fondamentale in questo caso. Avere numerose categorie indicizzate, con solo l’introduzione di un singolo articolo, potrebbero essere considerate sottili… insufficiente per chi raggiunge la pagina dal motore di ricerca, e quindi bollata come negativa.
Allo stesso modo, contenuti con poco testo, e che non superano i 500 caratteri (stima attendibile di diffferenziazione) sono sicuramente mal valutati dal crawel del motore di ricerca.

Meta tag nelle categorie

Se creiamo voci di menù, sezioni e categorie con una certa logica, il title ci basta per evitare “cose duplicate”. Nella 1.7 descrizione e keyword sono finalmente configurabili anche per le pagine di sezione, eliminando il problema.

Moduli pubblicati in tutte le pagine

A Google non piacciono le cose ripetute, e vuole contenuti prima di ogni cosa. Avere il contorno di un post, già relativamente corto, identico in tutte le pagine, potrebbe portare a  considerata come duplicata gran parte del tuo sito.

Banner pubblicitari

Avere troppa pubblicità, e soprattutto troppo invasiva, può essere una causa di penalizzazione. Quando il contenuto non è subito mostrato al visitatore, o quando la pagina ha una percentuale di pubblicità superiore alla percentuale coperta dal contenuto senza scrollare il mouse, qualche punto lo si perde di sicuro.

Velocità

Già da parecchio la velocità di apertura delle pagine di un sito pare rientri tra i fattori presi in considerazione da Google. Un Web più veloce è quasi un motto del motore, che probabilmente col panda ha esaltato questa caratteristiche "vitale" di un sito web.

Autore articolo e reputazione

Pare che google vada ora per “reputazione”. Bhèè, non è google che decide, ma chi agisce nel social web. Retritter, Mi piace, e +1 potrebbero costruire il Search Engine di domani influenzando fortemente il mondo della ricerca. Integrare i sistemi per condividere sui social i propri articolo è molto importante nel 2011, e lo sarà sicuramente ancor di più negli anni a venire. Altro che keyword, description e back link….no?!?!

Pertinenza e approfondimenti

E' la fine del title accantivante... e delle cinque righe di testo!!

Tratta l'argomento che conosci come un esperto, sviscerando ciò che gli altri non dicono, e sarai premiato. Ad esempio, se già hai un sito con più di cinquecento pagine, unisci quelle attinenti e creane una sola bella massiccia, completa e bella da leggere. Se hai articoli che non c'entrano un fico secco con l'argomento di cui tratti abitualmente, buttale via spostandole su altro dominio o inserendo un noindex. Specializza il tuo angolo, allo scopo di afferrare solo quelli che cercano ciò che troveranno nel tuo sito. Superfluo sottolineare che ciò che scrivi devi essere unico ed originale, non scopiazzato in giro, e soprattutto completo, lungo e il più possibile attinente. Deve piacere a chi lo legge, corretto grammaticalmente ed approfondito.

Privacy, disclaimer, proprietà del sito

Devi fare sapere chi sei, e non c’è di meglio che una pagina contatti facilmente raggiungibile, completa e dettagliata, un disclaimer legale, e le norme sulla privacy con ben inciso chi provveda al controllo e all’archiviazione. Pare che i siti “anonimi” non siano più graditi.