Rocket Science SEO è un corso dedicato ad alcune tematiche tecniche relative al funzionamento dei motori di ricerca. È organizzato da Enrico Altavilla, consulente SEO di grande esperienza che seguo da tempo, probabilmente dal primo Convegno GT di Firenze che risale al 2006. La prima edizione di Rocket Science SEO, a cui ho avuto il piacere di partecipare, si è tenuta lo scorso 19 maggio a Milano.

Nel corso dell’evento sono state fornite molte informazioni interessanti. Non era un corso focalizzato sull’aspetto operativo della SEO, ma avere queste informazioni è certamente utile per comprendere meglio il funzionamento dei motori e ha anche risvolti pratici. Sperando di fare cosa utile e gradita a chi lavora nel settore, ho riassunto alcune informazioni che ho appreso e che considero più utili e degne di nota.

Information retrieval

Da un intervento di Enrico Altavilla.

Sono quelle tecniche relative all’organizzazione di documenti e alla restituzione di risultati a chi cerca informazioni: è questo che fa un motore di ricerca.
Questo è lo scenario delle tecniche di IR usate dai motori avanzati tipo Google:

  • passato: si usavano solamente tecniche basate su testo e link;
  • presente: a questo si sono aggiunte tecniche di tipo semantico (ovvero che tengono conto del significato delle parole), si è raggiunta una maggiore astrazione (si lavora direttamente sui concetti, organizzati da Google nel Knowledge Graph, funzionalità che si concretizza nel box che compare sulla destra delle SERP quando si cercano persone, aziende, città, film, ecc) e si è iniziato a sfruttare l’intelligenza artificiale;
  • futuro: è probabile che l’intelligenza artificiale avrà un peso sempre maggiore nelle tecnologie dei motori.

Hummingbird e RankBrain

Da un intervento di Enrico Altavilla.

Sono due algoritmi introdotti negli ultimi anni da Google (rispettivamente 2013 e 2015). La loro introduzione ha portato un nuovo modo di analizzare le query fatte dagli utenti.

Oggi gli utenti fanno query mediamente più lunghe e conversazionali: ad esempio “il miglior posto dove mangiare pizza a Napoli”. Se il motore si limitasse a cercare i documenti che contengono tutti i termini contenuti in questa query, il risultato non sarebbe ottimale. In particolare, la parola “posto” è ambigua, dato che può avere diversi significati a seconda del contesto. Attraverso questi algoritmi Google è invece in grado di capire il reale search intent dell’utente, che in questo caso sta cercando una pizzeria a Napoli.

Se tutto questo già succedeva con Hummingbird, con RankBrain l’algoritmo è stato arricchito per sfruttare le reti neurali e quindi l’intelligenza artificiale.

Panda e Penguin

Da un intervento di Enrico Altavilla.

Sono due parti dell’algoritmo di Google che hanno un funzionamento simile, sebbene applicato a dati diversi. Si tratta infatti di due classificatori di siti, ovvero stilano una classifica dei siti in base a due diversi criteri: la qualità in caso di Panda e l’uso di tecniche di link spam nel caso di Penguin.

Si parte da una classificazione manuale fatta dai quality raters di alcuni siti, divisi in buoni, cattivi e intermedi. Tramite questi dati, si trova un criterio generale per dividere tutti i siti tra buoni e cattivi. Si può immaginare come una linea in un grafico che separi punti bianchi da punti neri. La classificazione quindi non è netta, nel senso che un sito si può trovare più o meno vicino a questa linea di confine, e ci si può allontanare o avvicinare nel tempo.

Questo significa, nel caso di Penguin, che la bonifica dei backlink può essere una buona idea farla anche se non è scattata la penalizzazione. In certi settori ultra competitivi viene fatta sistematicamente con una certa frequenza.

Il nuovo modo di scrivere contenuti

Da un intervento di Giulia Rognoni e Paolo Amorosi.

Alla luce di queste novità, il consiglio è quello di organizzare i contenuti in poche pagine molto complete, piuttosto che più pagine divise per argomento. La regola di fare una pagina / una keyword che era in voga fino a qualche anno fa, non è quindi più ottimale. È meglio invece fare pagine lunghe, con blocchi di testo collegati da ancore (ovvero i link che fanno fare il salto interno alla pagina).

Per progettare il contenuto di un articolo si può usare la tecnica delle mappe mentali. Si parte da un argomento principale, di cui si vuole scrivere. Tramite strumenti tipo il keyword planner si trovano sotto-argomenti correlati, eventualmente su più livelli.

Si può cercare di capire quanto questi sotto-argomenti siano correlati tra loro. Per fare questo si possono fare delle ricerche su Google per le chiavi relative: se due argomenti hanno molti risultati di ricerca in comune significa che agli occhi del motore sono correlati, altrimenti non lo sono. Argomenti correlati possono essere trattati in diverse sotto-sezioni nella stessa pagina, gli altri potrebbero meritare comunque una pagina a parte.

Per concludere:

  • testi lunghi e di qualità; in altre parole, completi;
  • concetti correlati all’interno della stessa pagina;
  • link interni.

Local SEO e i dati offline

Da un intervento di Luca Bove.

Tutto parte dall’estrapolazione di una località di riferimento in base alla query fatta dall’utente. I business locali che appartengono all’area di riferimento sono valutati in base a tre fattori:

  • Rilevanza, ovvero quanto il business rispecchia quanto cercato dell’utente;
  • Distanza, tra la posizione di chi cerca e del business;
  • Importanza, ovvero la notorietà stimata del business.

L’importanza è valutata in base a vari fattori:

  • citazioni: ovvero quanto si parla in rete del business (con o senza link, credo);
  • recensioni;
  • SEO tradizionale (se il business ha un sito);
  • dati comportamentali degli utenti (quanti cliccano sul risultato, quanti calcolano il percorso per arrivare sul posto, ecc).

Vedi anche:
http://www.localstrategy.it/ctr-fattore-di-ranking/

Per ovviare alla difficoltà di valutare per bene tutti questi dati (alcuni business non hanno neanche un sito web), Google sta cercando dati direttamente dall’offline. Tramite le Google Car, hanno iniziato a leggere i numeri civici, per correggere il loro database. Forse avrete notato che tempo fa nei loro captcha c’era da digitare le cifre dalle foto di alcuni numeri civici: beh, sappiate che questo serviva anche ad addestrare una rete neurale a riconoscerli in autonomia.

Dopo i civici hanno iniziato anche a leggere i nomi delle strade, e adesso anche le insegne. Avere un’insegna che riporti il nome dell’attività, senza troppo rumore di fondo, potrebbe diventare presto un fattore di ranking locale. Le Google Car stanno diventando l’equivalente offline del GoogleBot, e se si pensa che tra un po’ potrebbero anche fare a meno del guidatore…

Per concludere….

Quanto riportato è solo una parte di quanto affrontato durante l’evento. Ci sono stati anche interventi di altri relatori, di cui non ho parlato qui non perché li consideri poco interessanti, anzi, ma perché magari sono più specialistici e credo meno adatti ad un blog come questo.

Come ho già riportato direttamente a Enrico, spero ci sia un seguito a questa iniziativa. Nel caso, se mi sarà possibile certamente ci sarò.