Inizia forse una nuova offensiva contro il dominio nel search engine da parte di Google? Yandex, il motore di ricerca più popolare in Russia, sta esprimendo la sua affinità con Blekko con un investimento di 15 milioni di $ e un impegno a condividere parte della sua potenza di calcolo e altre tecnologie con il suo nuovo partner degli Stati Uniti. Blekko sta inoltre ricevendo un supplemento economico pari a 15 milioni di dollari da un altro gruppo composto per lo più dai suoi precendeti investitori, US Venture Partners, COMECON Capital e PivotNorth.
Da diverso tempo Blekko si sta impegnando nel creare un nuovo modello di sviluppo basato principalmente sul controllo umano al fine di eliminare definitivamente lo spam dai suoi risultati. Sembra che il motore di ricerca americano sia sulla buona strada per raggiungere lo scopo prefissato, e questa nuova linfa economica proveniente dal motore di ricerca che va per la maggiore in Russia (Google è poco considerato da quelle parti) è un toccasana non solo dal punto di vista finanziario, ma anche tecnologico.
Leggi tutto: Yandex investe 15 milioni di $ in Blekko, che ne riceve altri 15 da altri investitori
Manca poco all'implementazione anche in Italia da parte di google del nuovo update che tende a penalizzare nelle serp del motore di ricerca i siti che copiano, riprendono e ripubblicano contenuti che vengono prima pubblicati su altri siti web. Google Caffeine ha velocizzato l'indicizzazione di nuovi articoli, e si può dire che Google Panda Update ne è il figliastro che ha il compito di individuare i siti di bassa qualità che più che fornire utili indicazioni, approfondimenti, analisi di argomentazioni valide, pubblicano contenuti che hanno il solo scopo di scalare le serp del motore accapparrandosi visite non certo meritate.
L'annuncio del nuovo update, che prende il nome dal tecnico Google che lo ha sperimentato, è stato annunciato a fine febbraio ed è operativo al momento solo in Usa, e solo su Google.com.
L'algoritmo modificato ha lo scopo di classificare meglio la qualità dei siti e dare spazio solo a chi realmente da un valore aggiunto all'argomento trattato. Ora, il dubbio su come un algoritmo riesca a distingure la "qualità di un contenuto" è un mistero, ma le prime considerazioni che dal 24 febbraio si susseguono in rete analizzando le serp statunitensi non sono del tutto positive. Infatti, alcune content farm che questo nuovo update doveva colpire hanno addirittura guadagnato posizioni e visite mentre siti importanti che fanno dell'unicità e originalità del contenuto un principio del loro lavoro hanno perso posizioni, visite, e sopratutto introiti importanti.
La situazione statunitense è molto diversa da quella nostrana, dove di content farm vere e proprie non ve ne sono molte. Negli USA invece spopolano i siti di dubbia valenza, mentre qui da noi perlopiù chi rischia grosso sono i copioni, gli aggregatori, i siti di Article Marketing e di comunicati stampa, le directory e probabilmente anche gli e-commerce che pubblicizzano prodotti ed utilizzano le stesse descrizioni che i produttori hanno nelle loro presentazioni.
Questo non significa che tutti gli altri siti siano immuni e visto il rischio di vedersi penalizzati i propri siti è utile che sin da ora ci si ponga osservando le nostre creature alcune domande:
Il mio sito è interessante per chi lo visita?
I miei contenuti hanno una gerarchia utile?
Chi approda nel mio sito quanto tempo permane su di esso, e quante pagine visita?
Cerco di scrivere per gli utenti oppure lo scopo è quello esclusivo di trovare le parole chiave più ricercate?
I miei articoli sviscerano l'argomento di cui trattano, o sono solo un accozzaglia di parole chiave?
Quanta pubblicità hanno le mie pagine? è fastidiosa o si integra bene?.... ce ne sarebbero altre di domande, ma già queste (se viste con obbiettività) possono dare indicazioni riguardo alla presunta influenza sul sito del nuovo update.
Del nuovo algoritmo una cosa sembra certa: l'analisi sarà fatta sulle pagine, e non sull'intero dominio. Bastano poche pagine inutili che tutto il sito potrà subire un calo di visite dal motore di ricerca per la perdita di posizioni importanti nella classificazione che google mostrerà nelle serp dopo l'introduzione del Panda Update. Attendiamo che anche in Italia il nuovo algoritmo sia operativo per trarre altre considerazioni, ma, nel frattempo, essere obbiettivi nella valutazione dei nostri siti potrà metterci nelle condizioni di affrontare il cambiamento nel modo migliore.
Leggi tutto: Google Panda. Il nuovo algoritmo presto anche in Italia
Si è sempre detto che il vino buono sta nelle botti piccole, e forse a questo detto si è rifatto Google quando ha pensato bene di rimpicciolire le url tagliandone la parte centrale. Un rivoluzione del web questo nuovo modo di intendere un collegamento ad una pagina. Già servizi tipo TinyURL e Bit.ly sono abbastanza diffusi, basta vedere le url nei social come Twitter che da tempo utilizza questo sistema. Evidentemente un risparmio di risorse non indifferente ma anche qualche controindicazione. Infatti, per un sito web con url del tipo dominio/sezione/categoria/contenuto l'attrarre il visitatore grazie alla parte centrale del collegamento non serve più.
Un altro fattore da considerare riguarda l'ottimizzazione: Google, come altri motori, evidenziano la key ricercata anche nella Url, quindi se avessimo una sezione chiamata internet visibile al centro della url questa verrà "omessa" dalla visualizzazione in Serp. In ogni caso, se grandi network e social opteranno per questa scelta evidentemente ci saranno dei buoni motivi. Sembra che domani sarà inutile inserire key nella url per posizionarsi sopratutto se le nostre url si trasformeranno nella tipologia impostata da servizi come TinyURL o Bit.ly. Se questa è l'ennesima rivoluzione del web, e di conseguenza l'inizio del passaggio al cosidetto WEB 3.0 non lo sappiamo, ma non è certo cosa da poco.
Questa la news delle ultime ore che gira sul web. Il problema giudiziario nasce da, pensate un pò, un indicizzazione di contenuto diffuso da servizi alla RapidShare.
Premettendo che sia una questione spinosa su cui è meglio non entrarci troppo, anche perchè non tutti gli Stati hanno le stessi leggi, penso che in questi casi è questione di coscienza. D'altronde è come rubare, scaricare un prodotto commerciale. E lo stesso vale per Joomla, direi. Se si vuole quel prodotto, che sicuro avrà la possibilità di prova, lo si studia, e se si ritiene soddisfacente per lo scopo si acquista.