copertina evento SEO GT Idea Settimana della Formazione

Studiare SEO con strumenti a pagamento senza comprarli

marzo 1, 2015

by — Posted in SEO

Lo scorso Novembre ho avuto l’onore di fare da relatore ad un evento della GT Idea, la settimana della formazione.

Ho presentato una relazione dal titolo

“Studiamo la SEO con strumenti a pagamento…anche se non ce li possiamo permettere”.

L’obiettivo della mia relazione era quello di fornire due spunti di riflessione:

1- Per chi si avvicina al mondo SEO gli strumenti gratuiti possono essere validi alleati per studiare e cercare di capire il perchè delle cose.

2- Ci sono gli strumenti di Google e ci sono gli strumenti che cercano di stimare i dati di Google (tipicamente gli strumenti che cercano di segnalare il ranking delle kwyword nelle SERP.

Infine ho proposto una “traccia” che chi si avvicina alla SEO può usare per impostare lo studio di un sito.

Il primo punto è piuttosto auto-esplicativo.

Sul secondo vorrei soffermarmi un secondo.

Prova a riflettere su quale sia lo strumento che hai a disposizione, gratuito che ti da i dati più precisi riguardo ad esempio il ranking delle tue keyword.
Ci siamo?
Lo strumento per webmaster di Google. Non ci avevi pensato vero? Ti è venuto in mente altro… (per esempio Rank Tracker).

Non è probabilmente facile per chi si avvicina allo strumento capire dove guardare nel wmt, per capire come si stanno posizionando nel tempo le nostre chiavi, per questo ho cercato di spiegarlo con il mio intervento.

 

Gli strumenti che studiano il ranking delle keyword probabilmente anni fa non avevano la vita troppo difficile, poi però Google è evoluto rendendo la vita molto più difficile a questi software.

Cosa significa tutto questo?
Pensiamo al Google di 10 anni fa, te lo ricordi?
Tu scrivevi una ricerca e lui ti forniva risposte, DIECI ALLA VOLTA, secondo i suoi calcoli.

Se volevi fare uno strumento per studiare il posizionamento non dovevi fare altro che chiedere “in modo diverso” a Google i dati, potevi passare tramite il tuo software una keyword, un dominio, e il tuo software non doveva fare altro che contare in che posizione incontrava il dominio per la prima volta… “tutto sommato facile no?”. E il bello è che quello che vedevi tu a casa tua valeva per tutta l’Italia.
Poi però Google è evoluto, i dieci snippet non sono più stati dieci, principalmente con l’introduzione della Universal Search Google ha mescolato i risultati dei suoi motori verticali (Google “web”, Google Immagini, Google Video, ecc)…
Se oggi cerchiamo un prodotto che è in vendita in un e-commerce potrebbe accadere che si attivi Google Shopping, che in passato non esisteva. E se effettuiamo la ricerca in una città dove esiste un negozio che vende quel prodotto, probabilmente Google sarà in grado di indicarcelo. Questo significa che se un mio alter-ego stesse vivendo la mia stessa vita in un altro posto del pianeta, ma anche in una città diversa dala mia, e se anche in questa “seconda” città esistesse un negozio che vende quello stesso prodotto, ecco che il mio alter-ego vedrebbe un risultato simile al mio ma diverso. Probabilmente ognuno di noi con l’indicazione per raggiungere il negozio più vicino a lui.
Se io lanciassi il mio softtware allora, cosa dovrebbe ritornare come risultato? Di quale città dovrebbe mostrarmi il risultato? E sarebbe quello giusto?

Assolutamente NO.

Il rischio che correrei è di ottenere una serie di dati che sono inficiati dalla località dalla quale ho lanciato il mio programma. Per fare un esempio…

E Google come fa a dirci i dati giusti? Semplice.
I DATI SONO DI GOOGLE.

Google è in grado, anche molto semplicemente, una volta che ha costruito la risposta di “appuntarsi” in che posizione è stato mostrato il risultato.

Ed infatti è proprio questo il dato che si vede dagli strumenti per webmaster di Google, la MEDIA delle posizioni occupate dalla pagina che mi interessa a fronte delle ricerche.
Non solo mi mostra un numero medio, ma mi dice anche come lo ha composto…
Il risultato potrebbe essere in pos. media 2 perchè è apparso 1 volta in posizione 3 , una volta in posizione 2 e una volta in posizione 1.
Nello studiare questi risultati spesso non ci interessa sapere un dato puntuale, quanto piuttosto capire in che modo si sta evolvendo il posizionamento del keyword set sul quale sto lavorando.

 

Nell’intervento ho poi mostrato un software che si occupa di crawl, Screaming Frog.
E’ uno strumento molto utilizzato perchè si rivela molto comodo per analizzare lo stato di salute di un sito. Chi vuole studiare SEO può usarlo per capire quali sono i punti fondamentali dello studio SEO ON SITE di un sito.
Nell’intervento lo abbiamo visto una sezione alla volta riflettendo su cosa significassero le differenti sezioni.

Abbiamo poi studiato quella che si definisce SEO OFF SITE.

Lo abbiamo fatto con il software majestic (ex majestic SEO) ed abbiamo visto come si può ottenere molti dati da Majestic senza avere un abbonamento attivo.

Abbiamo capito come fare ad ottenere informazioni preziose per studiare e il nostro sito e la materia “backlink”.

 

L’intervento si è concluso con un esempio di studio di keyword strategy fatto con SEMRUSH, senza un abbonamento attivo. Abbiamo visto come chiedere i dati in modo da non perderli.
Che dati ci vengono forniti e come andrebbero studiati in modo critico per comprendere quali contenuti produrre.

 

Sono seguiti 50 minuti di domande! Segno che l’intervento è piaciuto.
Una grandissima soddisfazione =)

Buon lavoro e buona SEO!
Se hai domande non esitare a scrivermi 🙂

 

Le slide che ho presentato le trovi su slideshare