La migrazione segue una procedura che, dopo più di un anno dall'uscita della 2.5, può definirsi standardizzata e relativ
Leggi tutto...Sabato 14 ottobre 2017 la decima edizione del JoomlaDay Italia. Come ogni anno l'ingresso sarà libero, ma limitato ad un
Leggi tutto...Sobi2 è un CCK (Content Construction Kit) che la cosa che fa meglio è essere una directory per Joomla!. E' concepito c
Leggi tutto...Per chi utilizza un joomla!® come impalcatura del proprio sito web questo può definirsi un periodo "impegnativo" visto g
Leggi tutto...Inizia forse una nuova offensiva contro il dominio nel search engine da parte di Google? Yandex, il motore di ricerca più popolare in Russia, sta esprimendo la sua affinità con Blekko con un investimento di 15 milioni di $ e un impegno a condividere parte della sua potenza di calcolo e altre tecnologie con il suo nuovo partner degli Stati Uniti. Blekko sta inoltre ricevendo un supplemento economico pari a 15 milioni di dollari da un altro gruppo composto per lo più dai suoi precendeti investitori, US Venture Partners, COMECON Capital e PivotNorth.
Da diverso tempo Blekko si sta impegnando nel creare un nuovo modello di sviluppo basato principalmente sul controllo umano al fine di eliminare definitivamente lo spam dai suoi risultati. Sembra che il motore di ricerca americano sia sulla buona strada per raggiungere lo scopo prefissato, e questa nuova linfa economica proveniente dal motore di ricerca che va per la maggiore in Russia (Google è poco considerato da quelle parti) è un toccasana non solo dal punto di vista finanziario, ma anche tecnologico.
Manca poco all'implementazione anche in Italia da parte di google del nuovo update che tende a penalizzare nelle serp del motore di ricerca i siti che copiano, riprendono e ripubblicano contenuti che vengono prima pubblicati su altri siti web. Google Caffeine ha velocizzato l'indicizzazione di nuovi articoli, e si può dire che Google Panda Update ne è il figliastro che ha il compito di individuare i siti di bassa qualità che più che fornire utili indicazioni, approfondimenti, analisi di argomentazioni valide, pubblicano contenuti che hanno il solo scopo di scalare le serp del motore accapparrandosi visite non certo meritate.
L'annuncio del nuovo update, che prende il nome dal tecnico Google che lo ha sperimentato, è stato annunciato a fine febbraio ed è operativo al momento solo in Usa, e solo su Google.com.
L'algoritmo modificato ha lo scopo di classificare meglio la qualità dei siti e dare spazio solo a chi realmente da un valore aggiunto all'argomento trattato. Ora, il dubbio su come un algoritmo riesca a distingure la "qualità di un contenuto" è un mistero, ma le prime considerazioni che dal 24 febbraio si susseguono in rete analizzando le serp statunitensi non sono del tutto positive. Infatti, alcune content farm che questo nuovo update doveva colpire hanno addirittura guadagnato posizioni e visite mentre siti importanti che fanno dell'unicità e originalità del contenuto un principio del loro lavoro hanno perso posizioni, visite, e sopratutto introiti importanti.
La situazione statunitense è molto diversa da quella nostrana, dove di content farm vere e proprie non ve ne sono molte. Negli USA invece spopolano i siti di dubbia valenza, mentre qui da noi perlopiù chi rischia grosso sono i copioni, gli aggregatori, i siti di Article Marketing e di comunicati stampa, le directory e probabilmente anche gli e-commerce che pubblicizzano prodotti ed utilizzano le stesse descrizioni che i produttori hanno nelle loro presentazioni.
Questo non significa che tutti gli altri siti siano immuni e visto il rischio di vedersi penalizzati i propri siti è utile che sin da ora ci si ponga osservando le nostre creature alcune domande:
Il mio sito è interessante per chi lo visita?
I miei contenuti hanno una gerarchia utile?
Chi approda nel mio sito quanto tempo permane su di esso, e quante pagine visita?
Cerco di scrivere per gli utenti oppure lo scopo è quello esclusivo di trovare le parole chiave più ricercate?
I miei articoli sviscerano l'argomento di cui trattano, o sono solo un accozzaglia di parole chiave?
Quanta pubblicità hanno le mie pagine? è fastidiosa o si integra bene?.... ce ne sarebbero altre di domande, ma già queste (se viste con obbiettività) possono dare indicazioni riguardo alla presunta influenza sul sito del nuovo update.
Del nuovo algoritmo una cosa sembra certa: l'analisi sarà fatta sulle pagine, e non sull'intero dominio. Bastano poche pagine inutili che tutto il sito potrà subire un calo di visite dal motore di ricerca per la perdita di posizioni importanti nella classificazione che google mostrerà nelle serp dopo l'introduzione del Panda Update. Attendiamo che anche in Italia il nuovo algoritmo sia operativo per trarre altre considerazioni, ma, nel frattempo, essere obbiettivi nella valutazione dei nostri siti potrà metterci nelle condizioni di affrontare il cambiamento nel modo migliore.
Si è sempre detto che il vino buono sta nelle botti piccole, e forse a questo detto si è rifatto Google quando ha pensato bene di rimpicciolire le url tagliandone la parte centrale. Un rivoluzione del web questo nuovo modo di intendere un collegamento ad una pagina. Già servizi tipo TinyURL e Bit.ly sono abbastanza diffusi, basta vedere le url nei social come Twitter che da tempo utilizza questo sistema. Evidentemente un risparmio di risorse non indifferente ma anche qualche controindicazione. Infatti, per un sito web con url del tipo dominio/sezione/categoria/contenuto l'attrarre il visitatore grazie alla parte centrale del collegamento non serve più.
Un altro fattore da considerare riguarda l'ottimizzazione: Google, come altri motori, evidenziano la key ricercata anche nella Url, quindi se avessimo una sezione chiamata internet visibile al centro della url questa verrà "omessa" dalla visualizzazione in Serp. In ogni caso, se grandi network e social opteranno per questa scelta evidentemente ci saranno dei buoni motivi. Sembra che domani sarà inutile inserire key nella url per posizionarsi sopratutto se le nostre url si trasformeranno nella tipologia impostata da servizi come TinyURL o Bit.ly. Se questa è l'ennesima rivoluzione del web, e di conseguenza l'inizio del passaggio al cosidetto WEB 3.0 non lo sappiamo, ma non è certo cosa da poco.
Microsoft e Google dovranno rispondere in tribunale delle accuse mosse dalla Blues Destiny Records, piccola casa discografica che avrebbe depositato tre distinte denunce contro il servizio P2P RapidShare e contro i motori di ricerca Google e Bing. RapidShare sarebbe sotto accusa per aver ospitato quanto necessario a scaricare una dozzina di brani degli autori Ronny Sessum, Roy Powers e Peter McGraw, tutti sotto contratto presso la Blues Destiny Records; Google e Bing sarebbero invece colpevoli per aver favorito le attività RapidShare indicizzandone le pagine sotto accusa. Per RapidShare l'accusa è diretta: il servizio avrebbe ospitato materiale dai tre autori, ivi compresi album completi, creando un lucro proprio ai danni della piccola etichetta.
Abbiamo 58 visitatori e nessun utente online