Dopo due mesi dal Convegno GT ecco tutti gli appunti presi durante la prima giornata dell’evento: ci ho messo “un po’” a risistemarli e ho preferito lasciarli in esclusiva per la Top SEO/SEM Area di Giorgio, in modo che i partecipanti al Convegno potessero controllarli ed aggiungere qualcosa se ce ne fosse stato bisogno. A breve infatti vorrei approfondire qualche argomento, come suggerito da Alessandro Cosimetti.

Come dice il titolo e questa introduzione sono appunti, quindi non è un articolo ben scritto ed ordinato, mi scuso in anticipo.

Luca Bove – Ecologia SEO

Un embed vale come un link.
Google News è diventato più aperto ed ha inserito anche siti che riprendono le news da altre fonti. Diventa quindi più semplice sfruttare questo canale.

Possono essere usati anche gli aggregatori di feed, che nella maggior parte dei casi non sono dannosi. Da usare soprattutto quando il sito è già affermato, magari utilizzando plugins per modificare il footer od altre parti dei feed.
Ovviamente sempre pensando prima di tutto alle persone, inserendo links a tema e non troppo invasivi.

Uno degli errori più gravi è lasciar perdere i vecchi contenuti di un sito web che magari, abbandonandoli in archivi con URLs diversi o cancellandoli.
E’ necessario predisporre la pagina 404 o inserire un javascript di Google apposito. Per trovare gli errori 404 è possibile usare il Centro Webmaster Tools di Google.

Si possono usare i domini scaduti con dei links in arrivo e poi fare dei Redirect 301 dal vecchio dominio a quello esistente, usarlo come minisito satellite o creare un nuovo sito “avvantaggiato” partendo dal dominio acquistato. Bisogna stare attenti a domini precedentemente bannati
Fattori di guardare: domini a tema, monitoraggio di siti non scaduti ed acquistati appositamente, uso della wayback machine per vedere i vecchi contenuti e di yahoo site explorer per la link popularity.
Il Redirect 301 non passa tutto il valore, quindi solitamente è meglio creare un minisito o in qualche caso un sito creato appositamente.

Alessandro Martin – Velocità di Caricamento Siti

Un sito veloce è visto meglio dagli utenti e dai motori di ricerca. I fattori che determinano la velocità del sito sono vari ma quelli più importanti sono i fattori frontend, quelli più facili da ottimizzare.

  • Ridurre le richieste HTTP: unire i files javascript ed i fogli di stile(CSS).
  • Usare le Image Map, in questo modo si evitano troppe immagini e si ha un’immagine sola.
  • Immagini inline(in php basta usare un codice per codificare le immagini in base64)
  • Usare le CSS sprite
  • Content Delivery Network, si può fare tramite dei plugin js di Google.
  • Abilitare Gzip
  • Mettere gli script in fondo alla pagina
  • Usare gli Expire Headers, associando una data di scadenza alle cose, in modo da non dover far fare richieste inutili al browser, limitando le richieste HTTP.
  • Minimizzare Javascript e CSS. Esistono dei tools appositi.

Tools per la velocità dei siti:

  • Hammer Head – tempi di caricamento
  • Yslow
  • PageSpeed
  • Spritme – CSS Sprites
  • Smush – Comprimere Immagini
  • YUI Compressor – minifica JS e CSS.
  • Firebug

Al di la del fatto che forse la velocità di un sito migliora il ranking, questa porta sempre benefici, soprattutto adesso che la maggior parte dei siti è lenta. – Thinkpragmatic.net
Google Analytics ha un nuovo codice che non rallenta il caricamento e che può essere messo in cima alla pagina in modo da raccogliere tutti i dati.

Francesco Tinti e Giorgio Taverniti – Link nei Social Networks, Google Social Search e Link Popularity

I risultati di Google Social Search mostrano i risultati relativi ai propri amici(Social Circle) e alla keyword ricercata. Questi risultati vengono mostrati in fondo alla pagina di ricerca normale, esiste anche un esperimento di Google specifico per la ricerca nei Social Network.

Un social circle comprende:

  • Persone seguite nei social
  • Chat di gtalk
  • Contatti di Google Reader

Esistono due livelli in Google Social Search

  1. Utenti che seguiamo
  2. Utenti seguiti dagli utenti che seguiamo

Tramite il Tag rel=me Google riconosce gli amici negli altri Social Network(Social Graph API). Da Google Social Graph si può vedere come Google vede un account di un Social Network e a quali URL lo collega.

Sempre tramite Social Search si può vedere a quale persone Google ti associa per ogni Social Network.
Google Social Search indicizza tutti i contenuti generati sui Social Network e su Google Reader.
Google sta cambiando la grafica, inserendo un menu verticale al lato della pagina, con la possibilità di filtrare la ricerca in modo specifico(immagini, video, mappe, news, forums, social..)

Social Search

Google Social Search è verticale come Google ed ha potenzialità enormi. Più il nostro Social Circle, di primo o secondo livello, è grande più persone possiamo raggiungere.

L’algoritmo di Google Social Search è per ora molto semplice e considera principalmente due fattori:

  1. Numero di persone che hanno linkato l’articolo
  2. Qualità dei links

Google sta dando molta importanza ai links nei Social Network. Nei Social Network, soprattutto in Twitter c’è una mole enorme di links ed è difficile che Google non li analizzi. Per questo i links in Twitter e comunque tutti gli UGC vengono valutati da Twitter.

I motori di ricerca possono assegnare un valore ai vari accounts di Twitter in base a molti dati. Ad esempio un account con 10.000 followers inserito però in 10 liste e con tweets che non vengono retweetati può essere facilmente identificato come account di spam.

Google Friend Connect distingue utenti privati ed utenti business, aggiungendo funzionalità ai profili business.
Google Friend Connect in base alle preferenze espresse riesce a catalogare gli utenti su scala più grande. Per l’algoritmo di Google la relazione tra i membri A e B non è bidirezionale, ma va da chi richiede l’amicizia a chi accetta.

La tipologia forum non è 2.0 al contrario dei Social Network, ma ha caratteristiche simili a quelle dei Social.
Già del 2005 Google ha creato un brevetto, l’AgentRank, per valutare gli utenti.

Il TrustRank di Google non è legato ai siti web ma agli utenti, ovvero analizza quanto sono autorevoli gli utenti che partecipano ai siti verticali come forums, comparatori di prezzi, communities e probabilmente social networks.

Test condotto da Francesco:

  • Due account twitter, uno in trust e uno non
  • Un sito
  • Un articolo

Linkando l’articolo dal profilo in trust dopo poco si posizionano su Google il tweet e subito sotto l’articolo linkato dal tweet, come se fossero una cosa sola. Dopo qualche tempo tweet ed articolo si separano e “prendono vita propria”.

Linkando invece un URL da un account non trust non si posiziona nulla.
Da alcuni social si possono ottenere dei backlinks:

  • Blip.fm dal profilo
  • Myspace nei commenti
  • Flickr nelle descrizioni con nofollow
  • Facebook nelle applicazioni e nelle pagine fan
  • YouTube nel profilo
  • LinkedIn in WebSites

Tramite la qualità degli autori di un forum i motori di ricerca possono determinare la qualità dello stesso forum.

Enrico Madrigrano – Analizzare e risolvere una Penalizzazione

Le penalizzazioni possono essere:
Algoritmiche
Manuali(più rare)

Le penalizzazioni possono essere riconosciute dal crollo del ranking o del traffico proveniente da una determinata keyword. Si può controllare inoltre cercando su Google se un sito è penalizzato effettuando una ricerca del tipo “nomedominio + preposizione”, ad esempio:

“voli.it a”

Il sito effettuando una ricerca del genere deve apparire fra i primissimi posti. La ricerca del solo nome a dominio non funziona più.

E’ bene distinguere le penalizzazioni dalle fluttuazioni:
Penalizzazione: pagina web con ranking stabile, crollo improvviso
Fluttuazione: Pagina nuova, da poco indicizzata, che sale e scende le serp prima di stabilizzarsi, oppure fa la stessa cosa appena rientrata da una penalizzazione.

Quando bisogna lavorare su una penalizzazione serve fare prima di tutto le query site su google e linkdomain su yahoo.
Altre cose importanti sono la lettura dei files di log, le segnalazioni date da Google nel Webmaster Tools, la copia cache di Google e l’analisi fatta tramite un HTTP header check.

La Case History

La penalizzazione di cui si parla è una penalizzazione algoritmica. La pagina del sito era ben posizionata per la keyword cucine, poi è sparita ed è rimasta solo la home page in 4° pagina.
Il sito è realizzato in Joomla.
Prima di tutto effettuando una ricerca del tipo “keyword + nome marchio” non compare nei primi 100 risultati.

Cercando “site: url + keyword”

  • La pagina in questione compare negli ultimi risultati.
  • Prima di tutto c’è una fase di analisi della pagina:
  • Controllo della presenza di Contenuti Duplicati
  • Analisi del codice HTML, controllare che non ci siano title duplicati, tags messi male, ecc. ecc.
  • Controllo della presenza di sovra-ottimizzazione, che va evitata.
  • Controllo della presenza di spam o testo nascosto.
  • Controllo della presenza di link verso pagine “spam”.

Si passa poi all’analisi dei backlinks, link: su yahoo:

  • I links devono essere di qualità.
  • I links devono provenire da siti diversi, quindi diversità della link popularity.
  • Il tempo di crescita del numero dei backlinks.
  • Anchor Text dei links, se sono tutti con lo stesso Anchor Text potrebbe essere quello il motivo della penalizzazione.

Nel caso di questa case history c’erano moltissimi links con lo stesso anchor text proveniente sempre dagli stessi siti.
10.000 links da solo 4-5 domini differenti.
Tutti con lo stesso anchor text.
Posizionati nelle tipiche aree grigie(blogroll, footers, firme..)
Ottenuti probabilmente tutti in poco tempo, poiché provenienti dagli stessi domini.

La soluzione è stata la rimozione dei links in firma, e la differenziazione degli anchor text già esistenti, l’ampliamento del range di domini e lo spostamento dei links in zone più importanti, ad esempio articoli, contenuti post… Questo procedimento è stato fatto gradualmente.

Non bisogna martellare troppo sulla keyword che ci interessa tramite i BackLinks, e non più del 70% dei links verso una pagina devono avere come anchor text quella keyword.

Dopo circa 15 giorni il sito ha iniziato ad uscire dalla penalizzazione, infatti effettuando le query di controllo ci sono segnali positivi.
Già adesso la pagina sta risalendo nella SERP d’interesse.
Si è scoperto che poi il sito creava in modo inaspettato contenuti duplicati. Una cosa del genere poteva esserci se:

  • C’era stato un errore di programmazione o linking interno
  • C’era stato un tentativo di hacking su piattaforma Joomla.

Il secondo caso si verifica quando un hacker cerca falle nel CMS testando centinaia, se non migliaia di query che buchino MySQL.
Effettuando la query “site: + nome sito” si scopre che invece delle reali 600 pagine ce ne sono circa 10.000 indicizzate.
2000 su 4000 del blog sono pagine tag e questo porta a delle penalizzazioni, poiché vengono viste da Google come pagine duplicate.

La soluzione consiste nel fare:
1.Analisi specifica degli URLs indicizzati
2.Rimozione degli URLs duplicati, tramite robots.txt
3.Rimozione dei contenuti duplicati(pagine tag)

Per uscire da una penalizzazione è indispensabile:

  1. Capire se siamo veramente penalizzati
  2. Analizzare subito il contenuto della pagina
  3. Analizzare a fondo i backlinks
  4. Sviscerare le URL indicizzate
  5. Monitorare i cambiamenti e potenziare eventuali aspetti

Michal Gawel – Phrase Rank e la Sua Evoluzione

Google usa un’algoritmo, il phrase rank, di analisi multipla con il quale assegna ad ogni sito un significato semantico.
Google cerca di elaborare per ogni pagina degli snippets da mostrare all’utenza e da salvare nel proprio database in modo da non dover memorizzare tutta la pagina. Google cerca di selezionare le frasi più significative che poi gli “daranno una visione” del sito.

Se Google si sbaglia a scegliere le frasi e quindi catalogare un documento possono esserci dei danni a livello di posizionamento.

Google vuole frasi “buone”, per capire quali sono buone:

  • La frase è spesso presente nei documenti web.
  • La frase è corretta grammaticalmente.
  • La frase viene trovata accanto a frasi “buone”.

Molto frequentemente all’interno di e-commerce e siti turistici si trovano elenchi di strutture o prodotti: queste pagine non sono semanticamente “buone”.
E’ meglio scrivere ad esempio descrizioni dei prodotti in modo da dare “valore” alla frase.

E’ bene non ripetere troppo una stessa parola o frase all’interno di una pagina. Nel caso di un sito turistico con un title con all’interno una ripetizione di una stessa keyword si è assistiti ad una penalizzazione -90. Cambiando il tag title è tornato in 8° posizione.

Case study su Bakeca.it

Bakeca.it è un sito di annunci diviso in diverse città con diverse sotto-sezioni. La stessa struttura è usata per tutto il sito. La sezione di Roma non si posizionava bene, al contrario delle sezioni di tutte le altre città. Google non riusciva ad interpretare bene la grossa mole di dati presenti su Bakeca perché c’era una grande quantità di contenuti tutti con la stessa struttura.
Dal Google WebMaster Tools inoltre si poteva vedere che c’erano ben 2400 title duplicati e 10.000 description duplicate.
Per risolvere questo problema sono state deindicizzate le pagine elenco tramite “noindex, follow” e sono stati modificati tag title e meta description.
Sono state inoltre eliminate le descrizioni declinate automaticamente.
Con questi accorgimenti il problema è stato risolto e Google ha posizionato le pagine di bacheca relative a Roma nelle SERP adatte.

One Response

Leave a Reply

Your email address will not be published.