Lo dice Google. E come al solito, già lo si sapeva, ma quando Google se ne esce con una nota ufficiale chiaramente si smuove il mondo pronto a trovare strategie operative atte ad esaudire i voleri di BigGG.
"Siamo ossessionati dalla velocità!!"!! Così inizia il post pubblicato sul google webmaster central Blog, e continua: "Nella nostra ricerca algoritmica di posizionamento introduciamo un altro fattore: la velocità del sito". Questa è la definizione di velocità del sito: "La velocità del sito riflette quanto rapidamente un sito web risponde alle richieste".
Nel post viene espressa qualche verità assoluta. "Siti più veloci danno più soddisfazioni agli utenti. Quando un sito è lento nel rispondere, i visitatori passano meno tempo su di esso. Siti più veloci non si limitano a migliorare l'esperienza degli utenti, ma riducono anche i costi operativi. Gli utenti danno un sacco di valore in termini di velocità - ecco perché abbiamo deciso di prendere in cosiderazione la velocità del sito per stilare la classifica di ricerca - .
La parte finale è interessantissima, in quanto si parla di "Fonti", strumenti, e c'è pure qualche consiglio. Lo traduco volentieri.
"Usiamo una varietà di fonti per determinare la velocità di un sito rispetto ad altri siti.
Se sei un proprietario del sito, webmaster o un autore web, qui ci sono alcuni strumenti gratuiti che è possibile utilizzare per valutare la velocità del tuo sito:
Viene comunque puntualizzato che, per ora, le ricerche influenzate dalla velocità riguardano sono una piccolissima parte delle serp. Si parla dell' 1%. Ma non manca certo l'appunto che questa implementazione, che al momento riguarda solo google.com, presto coinvolga a pieno le ricerche degli utenti in tutto il mondo nelle versioni territoriali.
Il post si conclude con un suggerimento: "vi consigliamo di iniziare a considerare la velocità del vostro sito (gli strumenti di cui sopra forniscono un ottimo punto di partenza), non solo per migliorare il posizionamento nei motori di ricerca, ma anche per migliorare l'esperienza di tutti su Internet.
Ecco un elenco quasi completo dei controlli di Google, necessari per conoscere i trucchi giusti che ci permettono, tramite una semplice ricerca sul motore, di avere informazioni sul nostro sito, su tutti quelli dei nostri concorrenti, ma anche dei siti che ci piacciono; utilizzandoli possiamo sapere tanto e di più di tutto il web indicizzato. Alcuni sono utili trucchetti per scovare chi a scopiazzato il testo della vostra pagine, altri possono servire per trovare particolari tipi di file.
E' della scorsa settimana l'ultima intervista di Matt Cutts, decennale esperienza in Google ed ora dirigente del team webspam, che ci "confessa" qualche utile indicazione nel gestire meglio il nostro sito, ed ottenere un briciolo di visibilità in più. L'intervista è stata rilasciata a Eric Enge di stonetemple.com, sito dove potrete leggerla per intero, ed in lingua originale. Traduco di netto da qui, e tengo cara questa sintesi, certamente da rileggere con calma.
Matt Cutts ha affermato che il numero di pagine che gli indici di Google hanno del tuo sito web è grosso modo proporzionale al PageRank del tuo sito web. Ciò significa che più pagine del tuo sito verranno indicizzate più vicino al top sarà il pagerank. Se si hanno molti link in entrata molte più pagine verranno indicizzate.
Google non ha un tappo di indicizzazione, saranno cioè in grado di indicizzare tutte le pagine del tuo sito web se avete abbastanza link in entrata. Ricordate che il PageRank che Google utilizza nel suo algoritmo di ranking non è il PageRank che viene visualizzato nella barra degli strumenti Google.
Google può impostare una sorta di limite del numero di pagine che verrà recuperato da un server host lento. Questo può essere un problema per i siti web che sono ospitati su server condivisi.
"Immaginate la scansione di tre pagine da un sito, e poi scopriamo che le altre due pagine sono duplicati della terza pagina. Faremo cadere due delle tre pagine e ne terremo solo una. Cadranno le pagine che avranno meno contenuto ".
Come accennato in precedenza, Google indicizzare le pagine web in base al PageRank. Se si dispone di contenuti duplicati, alcune pagine del tuo sito web saranno scartate e si perderà punteggio in classifica.
Matt Cutts ha anche indicato che se si collega da una pagina a un duplicato della pagina, si può rovinare il proprio PageRank.
"E 'assolutamente ben visto da Google avere rel = canonica su ogni pagina del tuo sito. Tuttavia, Google non obbedisce sempre al tag canonical e si riserva il diritto fondamentale di determinare se il proprietario del sito si è accidentalmente buttato la zappa sui piedi a inserire o meno il tag rel = canonical".
Se un sito è un sito di affiliazione ed ogni pagina è molto simile ad altre pagine (solo con un logo diverso, ecc) allora questa pagina non "get high ranking".
Se Google rileva un link di affiliazione, questo collegamento non passerà potere.
Se si cambia il nome a dominio e si reindirizzano le vecchie pagine con un redirect 301 dalla pagina vecchia alla nuova pagina, il potere del link verrà passato al nuovo nome di dominio, ma la potenza complessiva dei collegamenti diminuirà. Il Redirect 301 non passarà l'intero PageRank.
"Se ci sono un gran numero di pagine che consideriamo di basso valore, allora potrebbe accadere che la scansione completa delle pagine da quel sito non avviene, indipendente dall'utilizzo del rel = canonical".
Se hai un sacco di pagine web con brevi contenuti allora Google potrebbe smettere di scansione il tuo sito web. Matt Cutts ha anche suggerito che potrebbe essere utile essere prolissi:
"Si vuoi veramente avere la maggior parte delle tue pagine negli indici di Google costruisci un prodotto realmente valido inserendo molto testo."
7. 7. Struttura del sito, navigazione e PageRank
Google non vuole costringere a costruire un sito per motivi di PageRank. Il modo migliore per potere passare pagerank da una pagina ad altre pagine è sempre quello di avere una buona navigazione.
"Una attenta cura dell'architettura del sito è davvero il modo migliore per raggiungere buoni risultati. "
"È possibile distribuire il PageRank nel proprio sito utilizzando ad esempio i link correlati. Penso che ci sono diversi modi per creare un ottima architettura".
"Già da un pò, abbiamo provato a scansionare JavaScript, e Google ha ottenuto esperienza e può eseguire alcuni JavaScript. Non tutti, in quanto ci sono alcune condizioni in cui noi non possiamo eseguire il JavaScript.
Abbiamo la possibilità di eseguire una grande frazione di JavaScript quando ne abbiamo bisogno." Una cosa da tenere a mente è che se si sta facendo pubblicità tramite JavaScript , è possibile utilizzare il no_follow sui link in JavaScript ".
Matt Cutts ha detto che Google non vuole che si faccia pubblicità per influenzare il posizionamento nei motori di ricerca.
Si potrebbe mettere un appello per la gente a denunciare di più sul link spam nei prossimi mesi. Matt Cutts ha detto che Google "fa un sacco di roba" per cercare di individuare gli annunci pubblicitari atti ad ingannare il motore ed è capace di evitare che tali link a pagamento incidono eccessivamente sui motori di ricerca.
Tutti i webmaster puntano l'attenzione sui tempi di indicizzazione dei loro contenuti. Quasi col cronometro in mano, utilizzando social diffusissimi come digg it, reddit ed altri, misurano dopo quanto tempo il prodotto uscito dai loro polpastrelli che hanno agito sulla tastiera venga individuato e posizionato. A tal proposito, Google ne inventa un'altra delle sue: si chiama Pubsubhubbub il protocollo open source che permetterà ai webmaster iscritti di segnalare revisioni o pubblicazioni di nuovi contenuti al motore allo scopo di una rapida ed efficace indicizzazione. In sintesi, il Pubsubhubbub (PuSH) è basato sul formato Atom e consentirebbe ai produttori dei contenuti (i webmaster, ma anche i Seo, o i semplici bloggers) di inserire nei loro feed l'indicazione di un particolare Hub, che avrà dunque il compito di segnalare istantaneamente la pubblicazione di un nuovo contenuto online da parte del sito web cui è collegato.
{youtube}B5kHx0rGkec{/youtube}
Un sistema alla rovescia, dove non è il lettore a controllare il feed, ma è l'editore stesso ad avvisare gli iscritti quando vengono pubblicati nuovi contenuti. Questo potrebbe portare il motore a garantirsi il primato nel raggiungere l'obiettivo spesso acclamato di indicizzare in real time i nuovi contenuti. Inoltre, un risparmio di lavoro per i crawler, che non dovranno più frugare il web in lungo ed in largo (are we there yet?, are we there yet?) ma basterà, tramite un hub nel feed RSS, inviare avvisi al motore di ricerca sulla presenza di nuovi contenuti senza dover dunque verificare ciclicamente - a volte inutilmente - la presenza degli stessi nei siti web.
Un attività indispensabile che compie un webmaster sui suoi siti è la verifica costante dei backlink. In Google, il comando per "scoprire" quali siti linkano la nostra creatura è (era) link:nomeadominio. Occorre scrivere l’url completo (di http://) e attaccato alla parola link, altrimenti si otterrano risultati completamente diversi. Quand'è nato, questo comando non restituiva comunque tutti i backlink, ma solo una parte che molti attribuivano ai siti che google riteneva più autorevoli.
Purtroppo, da molto tempo questo comando non restituisce risultati corretti. Anzi, sembra quasi voler ingannare il Webmaster visto che la maggior parte dei link che compaiono nelle serp utilizzando questo comando non sono altro che pagine interne del sito stesso. Ovviamente esistono numerose risorse, come siteexplorer di Yahoo, che permettono di sapere quanti link, e da quali siti, un sitoweb, o meglio, una pagina web riceve acquisendo dunque forza e autorevolezza.
Matt Cutts, tempo fa, ha pubblicato un video su youtube dove racconta i motivi che hanno portato al mancato funzionamento del comando.
{youtube}TjQ2QVQpaK0{/youtube}
Tra quelli più interessanti, Matt sottolinea come non si voglia dar adito alla concorrenza vedere come ha lavorato il webmaster (o l'agenzia di posizionamento incaricata di tale attività) e a quali siti si sia appoggiato per conquistare posizioni importanti. Bhèè, se non esistessero altre risorse atte a questo scopo la decisione di Google potrebbe essere comprensibile. Ma visti i numerosi tools che operano in tal senso sembra inutile questa scelta nella gestione del comando da parte del Big motore.
Abbiamo 13 visitatori e nessun utente online