Appena uscita la nuova versione di Joomla!®, il team ha pensato di illustrare le novità introdotte nella 3.2 attraverso
Leggi tutto...Finalmente il tanto atteso rilascio dell'aggiornamento alla release 3.9 è arrivato. E' disponibile al download la Joomla
Leggi tutto...Avevo già accennato alla prossima imminente uscita della nuova versione di Sh404 con integrato Google Analytics, ed è di
Leggi tutto...Gli heading tag sono usati per organizzare temi e sotto-temi della pagina. Ci sono 6 misure di heading tag: si parte da
Leggi tutto...Le strategie di posizionamento seguite da agenzie web specializzate si differenziano tra loro sopratutto per la tattica utilizzata, ed è ben noto come diverse tecniche possono essere sfruttate per spingere un sito nelle ricerche.
Se vuoi approfondire sulle Tecniche Seo, ti invito a visitare la sezione Dizionario Joomleliano dove vi è un elenco, superficiale, di definizioni di tecniche atte a dare rilevanza e visibilità ad un sito web.
Ho riflettuto su una frase che ho scritto nell'appunto di controllo di posizionamento scritto qualche giorno fa. La frase era "Nonostante lo stile white hat di questo blog, GG sembra sospettoso nei suoi confronti", ed in questo post voglio elencare alcuni motivi che mi spingono ad utilizzare sempre tecniche pulite, lecite, studiate per chi vuole durare a lungo.
Google ha sconquassato il mondo del SEO quando ha annunciato le modifiche apportate ai suoi metodi di indicizzazione e posizionamento con l'implementazione nell'algoritmo del cosidetto "Panda Update". Ancora non attivo in Italia, ma da quasi due mesi implementano nelle ricerche in lingua inglese, spero sia uno stimolo in più per utilizzare tattiche lecite, White Hat appunto. Non vorremmo che tra qualche mese rispuntino nelle serp cose viste nel 1999 quando testo nascono e keyword stuffing spopolavano, con un qualche ammodernamento della tecnica ed aggiornamenti al periodo attuale. Se google vuole molto contenuto, e non gli piaccino le pagine sottili... mi sa che il trucco per aggirare questo fattore sarà il primo ad essere messo in pratica.
Wired, tempo fa, ha intervistato due noti dipendenti di GG che hanno "raccontato dell'aggiornamento". Nel colloquio, parlando dello scopo dell'update panda, hanno detto che vorrebbero ridurre il contenuto meno utile, quello superfluo, quello che non merita buone posizioni nelle serp perchè insoddisfacente per l'utente. Alcuni hanno sostenuto che la duplicazione dei contenuti su più siti sia un fattore penalizzante arrivando a concludere che siamo alla morte dei backink, niente più article marketing, fine delle directory e dei comunicati stampa.
No, io direi che non è vero!! La chiave, secondo me , è continuare con il White Hat SEO per mantenere siti web di successo che guardano lontano. La Black Hat SEO è ormai un ricordo del passato e bisogna continuare ad operare in buona fede (tutto quanto dato per defunto che rientra nella white, non credo lo sia) pubblicizzando i nostri siti.
Costi molto più bassi
La Black Hat SEO comporta spesso un cospicuo acquisto di link al fine di incrementare il traffico verso un sito. Google ha punito JCPenney che hanno acquistato backlink specifici su una varietà di siti web non correlati, inviando un chiaro segnala che per il motore di ricerca questa tecnica non produce frutti duraturi. JC Penney è una grossa società che è in grado di gestire il costo finanziario dovuto all'acquisto di link, ma, tuttavia, se pensassimo a quanto hanno speso, sicuramente potrebbero pagarsi i migliori esperti nelle varie nicchie per scrivere articoli. Avrebbero potuto avere un rendimento molto maggiore dei loro investimenti, ed invece hanno solo perso dei soldi.
Ottimi rapporti con i lettori, i clienti, i visitatori
Un altro beneficio a lungo termine delle techiche White Hat SEO è che permettono di sviluppare relazioni organiche con i lettori ed i possibiili clienti. Necessario un bel po di lavoro in più, ma che può portare alla creazione di una base di traffico molto leale e stabile. Per fare un paragone su due tecniche utilizzate... niente spamming link o @mail spam. Meglio utilizzare Twitter, o proporre una newsletter dove il visitatore si iscrive volontariamente. Chi ti segue vuole essere libero di prendere decisioni sul tuo sito, tu devi informarlo per quanto e per quello che offri... sarà lui a decidere se iscriversi alla newsletter o seguirti su twitter.
Poco o nessun rischio per la salute del sito
Infine, pensa alle conseguenze di ciò che potrebbe accadere se Google decidesse di punire il tuo sito web per il perseguimento di tattiche Black Hat SEO. Le tecniche White Hat SEO sono approvate da Google, e per questo, minimo è il rischio di ricevere brutte sorprese come l'uccisione del tuo reddito in meno di un secondo per una penalizzazione manuale per l'utilizzo di tecniche scorrette.
1) analizzare in che modo gli utenti raggiungono il tuo sito e il loro comportamento
2) scoprire qual è il contenuto più visitato sul tuo sito
3) misurare l’impatto delle ottimizzazioni che hai effettuato sul tuo sito (per esempio, cambiare alcuni meta tag title e description ha migliorato il tuo traffico dai motori di ricerca?)
Le statistiche, combinate con i dati provenienti dai file server log, possono offrire ad un webmaster con conoscenze avanzate un quadro di informazioni ancor più completo riguardo l’interazione degli utenti con i tuoi documenti.
Infine, Google offre un altro strumento, chiamato Google Website Optimizer che permette di sperimentare per trovare quali cambiamenti alla tua pagina possono produrre le migliori percentuali di conversione con i visitatori. Questo, in combinazione con Google Analytics e Google Webmaster Tools, è un potente strumento da utilizzare per migliorare il tuo sito.
dalla Guida all' Ottimizzazione per i motori di ricerca di Google
Promuovendo con efficacia il tuo nuovo contenuto potrai renderlo più velocemente rintracciabile da parte di coloro che sono interessati all’argomento. Tuttavia, come per altri punti trattati da questa guida, portare agli estremi queste raccomandazioni potrebbe di fatto danneggiare la reputazione del tuo sito.
Promuovi nuovi contenuti e servizi attraverso un blog
Fare sapere ai tuoi visitatori che hai aggiunto qualcosa di nuovo tramite un blog post sul tuo sito è un ottimo modo di spargere la voce riguardo a nuovi contenuti e servizi. Il tuo articolo potrebbe essere anche ulteriormente divulgato da altri webmaster che seguano il tuo sito o da feed RSS.
Non trascurare la promozione offline
Anche impegnarsi nella promozione offline della tua azienda o del tuo sito può essere gratificante. Ad esempio, se hai un sito d’affari, assicurati che i suoi URL compaiano nei tuoi biglietti da visita, intestazioni da lettera, depliant, ect. Puoi anche inviare newsletter periodiche ai clienti per informarli delle novità sul tuo sito aziendale
Frequenta i siti di social media
I siti creati sulla base dell’interazione e condivisione tra utenti hanno spesso favorito l’incontro tra gruppi di utenti interessati a un determinato argomento e contenuti ad esso correlati.
Evita di: tentare di pubblicizzare ogni singola, minima aggiunta di contenuto; scegli aggiornamenti significativi e consistenti. Evita di coinvolgere il tuo sito in schemi che pubblicizzano il tuo contenuto artificialmente come servizio aggiuntivo
Aggiungi la tua attività al Local Business Center di Google
Se hai un business locale, aggiungerne i dati al Local Business Center di Google ti aiuterà a raggiungere più clienti attraverso Google Maps e la ricerca web. Il Centro di Assistenza per Webmaster contiene ulteriori consigli su come promuovere il tuo business locale.
Incontra la comunità di riferimento del tuo business
Probabilmente ci sono diversi siti che trattano argomenti simili ai tuoi. Aprire canali di comunicazione con questi siti è generalmente vantaggioso. Argomenti di rilievo nella tua nicchia o comunità potrebbero suggerirti nuove idee per il tuo contenuto o per costruire una buona risorsa per tale comunità.
Evita di: diffondere richieste di link a tutti i siti relativi al tuo settore d’interesse o acquistare link da un altro sito con lo scopo di ottenere PageRank piuttosto che traffico.
Le sezioni di commento dei blog sono altamente esposte allo spam. Applicare l’attributo nofollow ai link inseriti dagli utenti ti assicura che non passerai la “sudata” reputazione della tua pagina a un sito che contiene spam. Molti pacchetti di software per blog applicano automaticamente il nofollow ai commenti degli utenti, ma quelli che non lo fanno possono con ogni probabilità essere editati in questo senso manualmente. Lo stesso consiglio è valido per ogni altra sezione o area del tuo sito in cui l’inserimento di contenuto da parte degli utenti sia possibile, come ad esempio i guestbook, i forum, bacheche, liste di referrer, etc. Se invece sei disponibile a garantire per i link inseriti da terze parti, allora non hai bisogno di usare nofollow per quei link; tuttavia, link verso siti che Google considera spam possono danneggiare la reputazione del tuo sito.
Il Centro di Assistenza per Webmaster ha ulteriore consigli su come evitare lo spam nei commenti, come l’utilizzo di CAPTCHA e di un moderatore dei commenti.
Il nofollow può inoltre essere utile nel caso tu voglia inserire un riferimento a un sito web all’interno del tuo contenuto, ma senza passare ad esso la tua reputazione. Per esempio, immagina di scrivere un blog post relativo allo spam nei commenti e di voler mettere in evidenza un sito che recentemente ha inserito spam nei commenti del tuo blog. La tua intenzione è di allertare gli altri utenti riguardo quel sito, quindi includerai il link al sito nel tuo contenuto; tuttavia, di sicuro non vuoi dare al sito parte della tua reputazione tramite il link. In questa circostanza sarebbe opportuno usare il nofollow.
Infine, se hai interesse ad applicare il nofollow a tutti i link presenti in una pagina, puoi usare “nofollow” nei tuo meta tag robots, all’interno del tag <head> del codice HTML della pagina. Il Webmaster Central Blog contiene un post molto utile sull’uso del meta tag robots. Ecco come utilizzare questa soluzione all’interno del codice: <meta name=”robots” content=”nofollow”>
Il file “robots.txt” comunica ai motori di ricerca se debbano o meno accedere e indicizzare le varie sezioni del tuo sito. Questo file deve essere nominato “robots.txt” ed essere situato nella cartella principale del tuo sito.
Potresti non volere che certe pagine del tuo sito siano indicizzate, perché potrebbero non essere utili agli utenti se trovate come risultati di un motore di ricerca. Se vuoi impedire ai motori di ricerca di indicizzare le tue pagine, gli Strumenti per Webmaster di Google mettono a disposizione un pratico Generatore di file robots.txt per aiutarti a creare questo file. Se il tuo sito utilizza dei sottodomini e vuoi che i motori di ricerca non indicizzino alcune pagine all’interno di un particolare sottodominio, dovrai creare un file robots.txt separato per quel sottodominio.
Ci sono diversi altri modi per evitare che il tuo contenuto compaia nei risultati di ricerca, come aggiungere l’attributo “noindex” al tuo meta tag “robots”, utilizzare .htaccess a cartelle protette da password, oppure ricorrere agli Strumenti per Webmaster di Google per rimuovere del contenuto già indicizzato.
Utilizza metodi più sicuri per il contenuto sensibile
È meglio non affidarsi al file robots.txt per bloccare l’accesso a materiale sensibile o confidenziale. I motori di ricerca potrebbero comunque fare riferimento all’URL che stai bloccando (mostrando soltanto l’URL, non il titolo o la descrizione) nel caso ci siano collegamenti a quell’URL da qualche parte in Internet (ad esempio da referrer log). Inoltre, motori di ricerca non conformi o meno sofisticati, ad esempio non uniformati al Robots Exclusion Standard (standard di esclusione dei robots), potrebbero non rispettare le istruzioni del tuo file robots.txt. Infine, un utente curioso potrebbe esaminare le cartelle e sottocartelle nel tuo file robots.txt e indovinare l’URL corrispondente al contenuto che tu non vuoi che sia visto. Criptare il contenuto proteggerlo con password tramite l’.htaccess sono metodi molto più sicuri.
Evita di: sottoporre all’indicizzazione pagine che offrono solamente risultati di ricerca (agli utenti non piace approdare da un motore di ricerca ad un’ulteriore pagina di risultati di ricerca che non offre un significativo valore aggiunto) o sottoporre all’indicizzazione un alto numero di pagine generate automaticamente, aventi identico o quasi identico contenuto. Chiediti: “Ha davvero senso che queste 100.000 pagine pressoché identiche siano nell’indice di un motore di ricerca?”. Evita di sottoporre all’indicizzazione URL creati come risultato di un servizio proxy.
Abbiamo 16 visitatori e nessun utente online