SEO – Search Engine Optimization

link2Una guida gratuita di SEO per principianti redatta da Giorgio Trave

Tutto il SEO al volo con Paolo Libera

I contenuti di questa pagina riprendono le linee guida dello studio dei professionisti seo STUDIO SAMO

1-aorganic-serpSEO è quell’insieme di strategie e pratiche volte ad aumentare la visibilità di un sito internet migliorandone la posizione nelle classifiche dei motori di ricerca, nei risultati non a pagamento, detti risultati  organici (organic result nell’immagine).

S.E.O.  sta per Search Engine Optimization, tradotto letteralmente: “ottimizzazione per i motori di ricerca“.

Queste pratiche sono molteplici e riguardano diversi aspetti di un sito web: l’ottimizzazione della struttura del sito, del codice HTML, dei contenuti testuali, la gestione dei link in entrata ( backlink) ed in uscita (che dal tuo sito puntano verso altri), la velocità del sito.
Tutto si basa sulla coerenza fra la “query” di ricerca e il sito di atterraggio, che deve essere attinente e autorevole (ranking).

Poiché Google è il motore di ricerca di gran lunga più utilizzato al mondo, la maggior parte delle attività SEO riguardano lo studio dell’algoritmo di Google e dei suoi periodici aggiornamenti, e le relative azioni per rendere i siti più graditi a tale algoritmo.

0-seo-infographic_551585aec5c76_w1500five-seo-strategies-infographic-800

Dizionario SEO

  • SERP: “Search Engine Result Page”, tradotto letteralmente pagina dei risultati del motore di ricerca, è una qualunque pagina di Google che compare dopo che avete inserito il termine o i termini da cercare. L’immagine qui sopra è un esempio di SERP.
  • Query: è una qualunque ricerca effettuata sul motore. quando inserite una o più parole nel campo di ricerca di Google, state eseguendo una query.
  • Keywords: “parole chiave” (o chiave di ricerca), sono le parole che inserite nel campo di ricerca quando eseguite una query. Per keyword si intendono non soltanto singole parole ma anche stringhe di testo, ad esempio la ricerca “web marketing Bologna” è una keyword.
  • Robot: (detto anche spider o crawler), è il software che i motori di rierca utilizzano per analizzare tutti i siti della rete in modo automatico. I robot girano continuamente per scandagliare tutta la rete, passando di pagina in pagina per mezzo dei link. Effettuano una copia testuale di tutti i documenti visitati e li inseriscono in un indice (vedi indicizzazione). Il robot di Google si chama Googlebot.
  • Indicizzazione: è il processo mediante il quale il robot aggiunge il materiale al database del suo motore di ricerca per restituirlo poi, ordinato in una classifica (vedi ranking) in base alla pertinenza con la chiave di ricerca, quano viene ettettuata una query.
  • Ranking: è la classifica dei risultati rispetto ad una determinata query. Quando inseriamo una keyword, il motore di ricerca restituisce una SERP di risultati ordinati in base alla pertinenza dei documenti indicizzati rispetto a tale parola chiave. Ranking è inoltre sinonimo di posizionamento (vedi), in ambito SEO si dice “fattore di ranking” un qualunque elemento, interno o esterno al sito, che influenza la posizione in classifica.
  • Ottimizzazione: in ambito SEO, ottimizzare significa facilitare il più possibile il lavoro dei robot, fornendogli contenuti facilmente accessibili e rendendo più facile la comprensione da parte del software dell’argomento trattato dal documento.
  • Posizionamento: consiste nel migliorare la posizione di un sito/pagina web nel ranking dei motori di ricerca in relazione a determinate keyword. Il posizionamento (o il miglioramento di esso) è la conseguenza naturale dell’ottimizzazione.

SEO nel 2019: sta cambiando tutto

Alla base di una buona indicizzazione su Google ci sono sempre state due pratiche principali: il link building (i link in ingresso) e la strutturazione dei contenuti.

I link in entrata sono sempre stati alla base della capacità del motore di ricerca d’interpretare e assegnare un ranking.

Google negli ultimi anni ha aggiornato i propri algoritmi per raggiungere nuovi obiettivi.
Google vuole soddisfare i bisogni degli utenti. Interpretare i contenuti dei siti web per fornire risposte sempre più pertinenti. Vuole colloquiare e comprendere i contenuti vocali dei propri utenti.

Inoltre Google sta tendendo sempre di più a fornire:

a) risultati prodotti direttamente da Google stessa (immagini, info table, shopping)
b) risultati a pagamento sempre più pertinenti e legati ai reach snippet

E in questo modo la ricerca organica tende sempre di più a scendere benché in realtà quel che sta accadendo è che tutte le query che evocano riferimenti di business avranno sempre meno risposta organica mentre le ricerche puramente informative privilegeranno ancora una serp organica.

Ad esempio “nutrizione gatti grassi”  viene interpretata come una ricerca informativa (e non attiva neanche degli annunci ADS)

Schermata 2019-03-22 alle 10.46.38

Mentre cibo gatti grassi evoca di più una richiesta legata al business e infatti Google ci infila la sua piattaforma Google Merchant (che sta in cima alla SERP), gli annunci ADS e poi l’organico.

Schermata 2019-03-22 alle 10.42.42

Ma quali sono questi grossi filoni di cambiamento? Ne parla approfonditamente l’esperto SEO Serra qua.

In linea di massima Google vuole:

  1. interagire con le richieste vocali e fornire le risposte a bisogni specifici che vengono espressi attraverso formule colloquiali. Pensiamo all’ok Google dei dispositivi android e a Google Home. Ne parla approfonditamente Ninja Marketing qui.  Nella pratica cambierà molto la strategia di base anche a livello di seo copywriting. Meno keyword e più concetti. Più longtail e più local business.
  2. Fornire risposte più strutturate e più utili per l’utente. Qui entrano in scena i rich snippet e schema.org. Il Rich Snippet, arricchisce il risultato dello snippet normale di google (il sito nella SERP con “titolo”, “url” e “descrizione”) con elementi aggiuntivi che verranno visualizzati dall’utente su Google che, come vedremo dopo, possono essere stelline (valutazioni/recensioni), prezzi, video e nominativo dell’autore che ha realizzato tal contenuto.10ricette-su-serp-google
  3. Fornire risposte generate direttamente da Google (grazie ad integrazione Google MyBusiness e Google ADS) come quella qua sotto relativa alla query Hotel+Rimini. Schermata 2019-03-22 alle 11.51.57
  4. Già da tempo Google fornisce risposte geolocalizzate che intercettano i dati di Google My Business
  5. Interpretare i contenuti dei siti web. Capire il contesto insomma. E qui ci addentriamo nel web semantico e nel mondo degli algoritmi di Google e in particolare di RankBrain.Rankbrain è un componente del più grosso algoritmo Hummingbird, che tra le altre cose custodisce altri algoritmi dei quali hai già sicuramente sentito parlare, come per esempio Panda, Pigeon, Penguin e Pirata.002-rankbrainimage5

    Il compito speciale di Rank Brain è quello di interpretare le query delle persone – ovvero le domande di ricerca digitate sulla barra di Google – per cercare i risultati migliori per soddisfare le esigenze degli utenti. Ne parla Serra in questo articolo.

Nella pratica per assecondare le novità di Google è necessario lavorare sulla qualità delle proprie pagine web.

Cosa significa?

  1. Aumentare il CTR (click trough rate, cioè il numero di click sul sito rispetto al numero delle visualizzazioni dello stesso) delle singole pagine
  2. Aumentare le conversioni che devono essere impostate su ADS o Analytics (ad esempio se ho una landing page che fa lead generation google vuole che la mia pagina produca molti lead!)
  3. Lavorare su SEO Copywriting emozionale. Insomma non più “Cibo in scatola per Gatti Grassi – FattyCatPlus – Acquista ora” ma “Il tuo gatto tornerà felice e smilzo con FattyCatPlus, il cibo per gatti in scatola che piace al 93% dei gatti sovrappeso

Come “ragiona” un motore di ricerca

Schermata 2019-03-22 alle 12.06.52
Per praticare ogni attività SEO è necessario in primis capire come opera un motore di ricerca. Un motore di ricerca non opera sui server ma ha possibilità di scansionare solo i contenuti renderizzati. Insomma Google lavora solo sul primo settore dell’immagine qui sopra!

Come funziona? Il motore segue queste azioni:

              1. analisi del mondo web (crawling) attraverso l’utilizzo dei robot;
              1. indicizzazione (indexing) del materiale ottenuto;
              1.  ordinamento (ranking);
              1. risposta alle richieste dell’utente (SERP).

Per approfondire puoi leggere quest’articolo sui motori di ricerca.

Gli algoritmi di GOOGLE

Google aggiorna di tanto in tanto il suo algoritmo, raffinandolo sempre più, per dare agli utenti risultati migliori ed evitare la manipolazione dei risultati da parte dei SEO meno corretti (vedi Black Hat) e di presentare tra i primi risultati le pagine che diano effettivamente un valore agli utenti.

Alcuni tra i più significativi sono stati Google Panda nel 2011 e Google Penguin nel 2012, quest’ultimo particolarmente rilevante poiché riguarda i link in ingresso di un sito. Essi hanno arginato alcuni fenomeni come la produzione di contenuti di scarso valore o la partecipazione a schemi di link al fine di manipolare il PageRank, penalizzando diversi siti nei risultati di ricerca.

Il 22 maggio 2013 è stato rilasciato l’aggiornamento Penguin 2.0, un ulteriore sviluppo di Penguin, reso maggiormente sofisticato. Nel video seguente, apparso il 13 maggio del 2013 (pochi giorni prima del rilascio di Penguin 2.0).

link2Un bel compendio aggiornato a marzo 2019 degli algoritmi di Google
E poi per approfondire puoi leggere questo articolo su Google Panda, questo su come fare seo dopo google penguin e quest’altro su Google Hummingbird.

L’attività SEO nel dettaglio

L’attività seo comprende diverse fasi di tipo sia analitico/strategico che operativo. Sul piano operativo, per ottimizzare un sito occorre tenere in considerazione molti fattori diversi. Un approccio originale per descrivere i principali tra questi fattori è stato realizzato da Search Engine Land, una nota ed autorevole rivista americana del settore. Search Engine Land ha realizzato una tavola periodica dei fattori di ranking (che aggiorna periodicamente man mano che Google aggiorna il suo algoritmo).

tavola periodica fattori seo 2013 SearchEngineLand

La fase strategia SEO: la scelta delle keyword

Questa fase è fondamentale, qualunque attività SEO risulta essere priva di senso se non viene effettuata prima un’analisi accurata delle parole chiave da scegliere per la propria campagna. La ricerca delle parole chiave “migliori” può essere effettuata con strumenti software appositi, interviste agli utenti, analisi della concorrenza (benchmarking competitivo) e utilizzando lo stesso motore di ricerca.

Per il successo di una campagna SEO è consigliabile selezionare parole chiave non troppo generiche, poiché risulterebbe molto difficile o addirittura impossibile raggiungere buoni risultati in tempi utili, ma neppure troppo specifiche, poiché, se sono poco cercate, generano di conseguenza poco o nessun traffico al sito.

Nella scelta delle keyword è applicabile la teoria della “Long Tail” di C. Anderson, secondo la quale i prodotti di nicchia avranno molte più possibilità di profitto. Per applicare questa teoria in ottica seo, è quindi preferibile scegliere molte parole chiave specifiche (con meno concorrenza e tasso di conversione maggiore) piuttosto che poche generiche (con molta concorrenza e basso tasso di conversione). Per approfondire con studio samo: coda lunga e posizionamento nei motori di ricerca.

seo coda lunga long tail

un esempio di strategia SEO “coda lunga”

Quali parole vengono usate per cercare alcuni argomenti? Quanta concorrenza e che volume di ricerca hanno?
Ci sono diversi strumenti che aiutano in questo lavoro:

    • strumento per le parole chiave di Google AdWords. Questo strumento offre dati statistici sul numero di ricerche mensili, globali o per singolo Paese, che vengono effettuate dagli utenti con una determinata chiave di ricerca.

      Ubersuggest by Neil Patel, uno strumento in parte gratuito che suggerisce le parole chiave per un dato argomento e che permette di ricercare le parole più utilizzate per un certo dominio (e quanto stanno effettivamente performando)

    • SEOZOOM, SEMRUSH, AHREFS (ecc..): strumenti a pagamento (ma con demo online da provare) che offrono tutti gli strumenti più utili per un’analisi seo e una pianificazione di progetti di web marketing

On-page SEO

Si definisce SEO “on-page” (o “on-site“) l’insieme delle attività di ottimizzazione all’interno delle pagine di un sito. Questa è solamente una parte dell’attività SEO, l’altra faccia della medaglia è definita di conseguenza “off-page” (o “off-site“) ed è l’insieme di attività di gestione dei link in ingresso (inbound link o backlink) verso un sito, che sono un segnale importante per i motori di ricerca quando giudicano l’autorevolezza di un sito.

L’ottimizzazione on-page a sua volta si può suddividere in due aree distine: l’ottimizzazione del codice HTML e della struttura di un sito; e l’ottimizzazione dei contenuti testuali e immagini di un sito.

Aggiungo che un buon posizionamento del proprio sito web può dipendere anche da alti elementi, come fattori lato server, quali l’affidabilità e la velocità dello hosting, e da altri fattori come l’anzianità del dominio (alcuni esperti sostengono che domini con più di 5 anni siano ritenuti più affidabili da Google) e il comportamento degli utenti sul sito (tempo di permanenza, numero di pagine visitate), ma i maggiori risultati si ottengono mediante queste due attività.

Il CANONICAL. Come spiegare a Google qual è la pagina giusta da prendere in considerazione tra due simili o uguali

canonical URL sono qualcosa di molto importante dal punto di vista SEO.  Perché? Presto detto, proprio da loro dipendono gli immancabili problemi generati da una mancata o non corretta ottimizzazione degli URL canonici.

Come creare un url canonical:

        1. Scegli una delle due pagine e rendila la versione canonica inserendo nelle pagine NON canoniche la stringa
        1. Fa in modo che la tua scelta ricada sulla pagina che ritieni più importante e che potrebbe aiutarti ad aumentare le visite al sito.
        1. Se non t’importa, semplicemente, scegli la pagina che fa più visite e che ha più link.

In base all’esempio riportato prima, se la tua scelta dovesse ricadere sulla URL più breve come -http://peresempio.it/wordpress/seo-plugin/ – allora l’altra URL dovrà linkare alla prima come ti ho appena mostrato:

<.link rel="canonical" href="http://esempio.it/wordpress/seo-plugin/" /.>
(senza il punto) --> ecco il link sotto come viene, Google sa che quello di Serra è il link canonico!

Approfondisci: https://www.roberto-serra.com/canonical-url-cose-e-perche-non-puoi-farne-a-meno-lato-seo/

Ottimizzazione SEO del codice HTML, Robots.txt e Htacces

Ogni sito internet è formato da un codice sorgente HTML che viene letto dal browser (Internet Explorer, Firefox, Safari, Chrome, etc.) e presenta il sito nelle maniera in cui noi lo vediamo. L’ottimizzazione del codice è perciò l’attività di ottimizzare le parti “invisibili” all’utente, ma che incidono sul ranking del sito.

Di particolare importanza sono alcuni tag che formano il codice, come il tag title – che può essere visibile nella parte in alto del browser quando apriamo una pagina web, e nella SERP collegato alla nostra pagina – che serve a specificare il titolo di una determinata pagina.

tag title

Affinché sia ottimale, questo tag deve far capire chiaramente sia agli utenti che ai robot l’argomento trattato nella pagina, deve quindi includere le parole chiave che prendiamo di mira (quelle che pensiamo che gli utenti digitino per trovarci). E’ inoltre opportuno prevedere title diversi per ogni pagina del sito, in maniera tale da ottimizzare ogni pagina per un singolo argomento specifico.

Ad esempio, se vendiamo sedie e tavoli da ufficio, dovremo fare due pagine diverse con rispettivamente “sedie da ufficio” e “tavoli da ufficio” come title, invece di creare un’unica pagina.

Un altro elemento da tenere in considerazione a livello di codice è la meta tag description (che compare come “anteprima” della pagina nella SERP).

meta tag description

Anche se la Meta tag description non incide direttamente sul posizionamento nei motori di ricerca, è estremamente importante per ottenere click through rate (il rapporto tra numero di visualizzazioni e numero di click) dalle pagine dei risultati dei motori di ricerca (e quindi indirettamente può influenzare il ranking). Essa deve contenere perciò un messaggio chiaro, coerente con il contenuto ed accattivante, per invogliare gli utenti a cliccare sul vostro link piuttosto che su quelli della concorrenza.

E’ consigliabile di utilizzare una lunghezza inferiore ai 155 caratteri per fare in modo che Google non tagli la frase a metà, rischiando di far perdere il significato.

tag Heading (h1, h2, h3…) servono a delimitate il testo in paragrafi con titoli e sotto-titoli, sono anch’essi utili per far capire l’argomento del documento sia agli utenti che ai motori. E’ perciò opportuno utilizzare H1 per il titolo principale della pagina, includendo in esso la parola chiave in corrispondenza con il tag tile (si noti che sono due cose distinte: l’h1 appare nel documento come titolo ed è visibile agli utenti, il title è visibile nella linguetta de browser ed appare collegato nella SERP).

Il testo alternativo (alt) è un attributo da aggiungere nelle immagini. I robot non riescono a leggere il testo contenuto nelle immagini, perciò è importante aggiungere questo attributo per far capire ai motori di ricerca che cosa l’immagine rappresenta.

Gli URL delle pagine sono ottimali se non contengano caratteri come “?”, non scansionabili da alcuni robot e se contengono anch’essi una indicazione sul contenuto della pagina. Dovremo avere ad esempio, non

http://www.miosito.it/scheda-prodotto?=3456722

ma

http://www.miosito.it/sedie-da-ufficio

Bisogna anche che il codice sia ben scritto e non contenga uso eccessivo di javascript/ajax, poiché i motori di ricerca prediligono pagine con rapporto testo/codice a favore del testo.

Oltre ai dati relativi a ciascuna pagina, un altro elemento importante riguarda la struttura del sitostesso – e di conseguenza del menu di navigazione – ottimale se gerarchica (o “ad albero”), perché facilmente scansionabile dai robot, e nella quale ogni pagina del sito è collegata da almeno un link da un’altra pagina.

seo struttura di navigazione sito

Un esempio di struttura “ad albero” ben formata

Bisogna anche verificare ed eventualmente sistemare la presenza di link non funzionanti all’interno del nostro sito, poiché un numero eccessivo di “broken link” può far supporre ai motori che il sito sia abbandonato.

Per approfondire leggi anche come ottimizzare la meta tag description e come ottimizzare il tag title. Puoi anche leggere questa  guida all’ottimizzazione del codice HTML.

LA SITEMAP

Per creare una mappa in XML, RSS, TESTO:

https://support.google.com/webmasters/answer/183668?hl=it

es. per un singolo URL

xml version="1.0" encoding="UTF-8"?>
<urlset< span=""> xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"> 
  
    http://www.example.com/foo.html
    2018-06-04
  

Come caricarla sul sito e renderla utile per il SEO

    • Caricarla con un plugin del proprio CMS (es. per wordpress YoastSeo)

Esistono per fortuna dei generatori automatici di sitemap in XML come: https://www.xml-sitemaps.com/

Schermata 2019-03-22 alle 14.17.29

Le relazioni: Nofollow – Noindex

L’indicizzazione delle pagine web (e anche la deindicizzazione delle pagine web) dipende dai meta tag robots, che comunicano ai motori di ricerca varie informazioni (ad esempio che keywords abbiamo scelto di utilizzare, i titoli delle pagine, la natura dei link) nonché la nostra volontà di indicizzare o meno una pagina, di inserirla negli archivi dei motori di ricerca, di dare, o non dare, importanza ai link contenuti sulla pagina, ecc. Su questo articolo ci occuperemo di Noindex e Nofollow, attributi che servono a deindicizzare una pagina internet.

Noindex

L’attributo rel=”noindex”  comunica a Google la nostra intenzione di non voler indicizzare la pagina, anche se non è detto che Google segua le nostre direttive.

Infatti, anche se Google non la presenterà tra i risultati, la pagina sarà comunque presente sui suoi archivi (Se non vuoi che il contenuto sia salvato nel database di google usa questo tag: )

In questo modo la pagina non esisterà più per i motori di ricerca, ma gli utenti continueranno a visualizzarla: questo farà sì che non si accumulino sul nostro sito delle spam engine, ma al tempo stesso eviterà che i backlink esterni e quelli interni rimandino ad una pagina 404.

Per inserire l’attributo noindex dovrai inserire questa stringa di codice html:

<meta name="robots" content="noindex">

Nofollow

L’attributo rel=”nofollow” agisce in maniera diversa rispetto al noindex che, come abbiamo visto, serve a deindicizzare una pagina.

Il nofollow indica a Google di non seguire i link contenuti in una pagina specificané di dar loro peso in termini di posizionamento, attribuendo valore al sito che riceve i link.

Per applicare il nofollow a tutti i link di una data pagina dobbiamo aggiungere questa stringa di codice html:

Se invece vogliamo applicarlo a un solo link contenuto sulla pagina faremo così:

rel=”nofollow”>ANCHOR TEXT

Volendo possiamo applicare entrambi i meta dati: segnaliamo cioè ai motori di ricerca di non indicizzare la pagina e di non considerare i link in essa contenuti. In questo caso la stringa è questa:

Quando si cercando di produrre backlink  con il link building/earning è fondamentale verificare se ci sono dei nofollow.

Ma prima di andare oltre, devo spiegare che cos’è il “link juice”. Nel mondo del SEO, ottenere un link da un altro sito web al tuo sito è un grande risultato. Tale legame è visto dai motori di ricerca come un’approvazione. I motori di ricerca considerano come fattore il numero di link che puntano al tuo sito, quando determinano il posizionamento del tuo sito nei loro indici. “Link Juice” è un termine non scientifico per il cosiddetto potere che il link fornisce al tuo sito web o pagina web in questione.

Il nofollow è un attributo che – si può dire – impedisce al link juice di fluire ad un sito web. Questa è una cosa molto comune ad esempio nei link presenti nella sezione commenti di un blog.

Per scoprire se i link che puntano al tuo sito passano il succo del collegamento, devi verificare se i link hanno l’attributo nofollow al loro interno. Se ce l’hanno, allora il link che hai lavorato così duramente per ottenere non sta facendo molto per te, in quanto l’attributo nofollow dice fondamentalmente a Google di ignorare la tua pagina web.

nofollow

Perché usare noindex se abbiamo il disallow su Robots.txt? Il file robots.txt impedisce del tutto l’accesso dello spider a determinate cartelle e file tramite l’istruzione Disallow, mentre il meta tag robots permette in ogni caso l’accesso alla pagina, istruendo lo spider sulla fase successiva: se indicizzare o meno la pagina, se deve seguire o meno i link; si tratta di un metodo che permette di istruire in modo ancora più preciso e specifico lo spider.

In realtà possiamo avere 4 alternative:

Abbiamo così quattro alternative:

Si richiede di indicizzare la pagine e seguire tutti i link.

Si richiede di indicizzare la pagina ma non seguire i link.

Si richiede di non indicizzare la pagina, ma di seguire i link che da quella pagina portano ad altre pagine.

Si richiede allo spider di non indicizzare e non seguire i link di quella pagina.


ROBOTS.TXT

Il robots.txt è un file che permette al Webmaster di fornire una serie di istruzioni ai motori di ricerca riguardo ciò che possono e ciò che non possono fare all’interno del nostro sito.
Queste istruzioni seguono il cosiddetto Robots Exclusion Protocol (REP), le cui specifiche sono disponibili sul sito www.robotstxt.org .

Il file robots si presenta nel formato txt e codifica UTF-8 e contiene alcune semplici istruzioni.

Un’istruzione base allo spider è dato da due righe:

    • User-agent:
    • Disallow:

User-agent

Questo elemento specifica a quale spider si applica l’istruzione.

User-agent: *

con * (asterisco) si indica che l’istruzione riguarda tutti gli spider .

Se vogliamo specificare l’istruzione ad uno spider preciso, dovremmo scrivere il nome dello spider. Nel caso di Google lo spider principale è Googlebot.
Scriveremo quindi:

User-agent: Googlebot

L’elenco dei nomi degli spider è disponibile su robotstxt.org.

Disallow

La riga definita dal valore Disallow dice allo spider quale cartella o file del sito non deve essere visto e indicizzato; serve di fatto ad impedirne l’accesso.

Ipotizziamo di avere una cartella /admin contenente aspetti relativi all’area amministrativa del sito e di volere impedire che venga visto dallo spider. Scriveremo:

User-agent: *
Disallow: /admin/

Possiamo invece impedire, ad esempio, l’indicizzazione su Google Immagini di una cartella contenente le immagini: ad esempio la cartella /immagini del nostro sito (www.miosito.it/immagini).

Scriviamo:

User-agent: Googlebot-Image
Disallow: /immagini/

Possiamo dare istruzioni relative ad un singolo file. In questo caso scriveremo, ad esempio:

User-Agent: *
Disallow: /immagini/foto1.jpg

Allow

Possiamo anche utilizzare il termine Allow per permettere la visione l’indicizzazione di alcune pagine o cartelle.
Può essere utile se abbiamo impedito l’accesso ad una cartella (ad esempio la cartella /immagini) ma vogliamo permettere l’indicizzazione di un file al suo interno (ad esempio il file /immagini/foto1.jpg).
Scriveremo:

User-Agent: Googlebot-Image
Disallow: /immagini/
Allow: /immagini/foto1.jpg

In questo caso impediamo la scansione e l’indicizzazione di tutti i file contenuti dentro la cartella /immagini tranne che per il file foto1.jpg .

Carattere * e $

Il carattere * , rispettato dagli spider di Google e Bing, è utilizzato non solo a livello dell’User-agent (qui sta a significare “tutti gli spider”) ma anche al livello di Disallow, anche insieme ad un secondo carattere accettato $.

Vediamo l’utilizzo di entrambi i caratteri.
Ipotizziamo di voler escludere tutti i file nel formato jpg dalla scansione dello spider.

Scriviamo:

User-Agent: *
Disallow: /*.jpg$

in questo modo indichiamo che tutti i file che terminano con .jpg devono essere esclusi dalla scansione dello spider.

Lo stesso potremo fare, ad esempio, per i file pdf.

User-Agent: *
Disallow: /*.pdf$

Potremmo invece permettere ad esempio l’accesso e la scansione di un file PDF specifico (ad esempio documento1.pdf)
Scriveremo:

User-Agent: *
Disallow: /*.pdf$
Allow: /documento1.pdf

Il carattere * può essere utilizzato anche in altre situazioni.
Ipotizziamo di voler impedire l’accesso degli spider a più cartelle con nomi simili. Ad esempio:
/immagini-mare
/immagini-montagna
/immagini-citta

Possiamo scrivere un’unica regola che impedisca l’accesso a tutte quelle cartelle o sottocartelle che iniziano con il nome “immagini”.
Scriveremo così:

User-Agent: *
Disallow: /immagini*/

Un altro utilizzo dell’asterisco * è quello di bloccare l’accesso a tutti gli URL che comprendono un determinato carattere.
Ad esempio il ? (punto interrogativo).
Scriveremo così:

User-Agent: *
Disallow: /*?

Ottimizzazione dei contenuti (SEO Copywriting)

I contenuti sono in verità la parte più importante della SEO, infatti i motori di ricerca evoluti, come Google, riescono a leggere i contenuti testuali di un documento, “capendone il significato” ed attribuendone un punteggio di qualità e pertinenza rispetto alle query. L’importanza dell’attività di creazione di contenuti di qualità è esemplificata dal noto mantra della SEO “Content si King“, il contenuto è Re (frase attribuita a Bill Gates).

content is king bill gates

E’ opportuno quindi che un sito contenga realmente contenuti utili e interessanti che creino un valore per gli utenti al fine di ottenere un buon posizionamento sui motori di ricerca. Un sito povero di contenuti non potrà essere ben posizionato, o comunque sarà difficile mantenere la posizione nel lungo periodo.

Un chiaro esempio e Wikipedia, che risulta tra i primi risultati per un gran numero di chiavi di ricerca. Per garantire la presenza di contenuti di qualità sul proprio sito, è bene anche aggiornarlo aggiungendo nuovi testi con una certa frequenza. Per questo motivo, aprire un blog aziendale integrato nel proprio sito è il miglior modo per ottenere un buon posizionamento duraturo nel tempo.

E’ di importanza fondamentale, oltre ad avere buoni contenuti, avere contenuti unici, quindi non copiati da altri siti. Google si accorge quando un contenuto non è originale e lo penalizza drasticamente nei suoi risultati.

Naturalmente, il contenuto dovrà includere le parole chiave con cui si vuole essere trovati, ma in maniera tale da non risultare innaturale per il visitatore. Google e gli altri motori di ricerca moderni utilizzano sistemi di analisi semantica del testo che comprendono la sinonimia e la correlazione tra termini.

Data questa evoluzione, possiamo facilmente comprendere come l’eccessiva ripetizione della parola chiave presa di mira (in gergo keyword stuffing) in un testo – come facevano i SEO diversi anni fa, quando gli algoritmi erano meno evoluti – non produce alcun miglioramento nel posizionamento (si rischia anzi di svalutare l’esperienza degli utenti ed ottenere l’effetto contrario). E’ invece opportuno scrivere in maniera naturale, con l’obiettivo di produrre contenuti interessanti per gli utenti, non per i robot.

L’attività di scrivere contenuti SEO è detta SEO Copywriting, ed è l’arte di combinare la buona scrittura con gli elementi dell’ottimizzazione.

Dove sono localizzati i contenuti importanti per il SEO?

    • Tag title: il titolo della pagina è un elemento fondamentale da inserire nella sezione head del documento. La lunghezza del titolo deve essere compreso tra i 40 e i 70 caratteri che rappresentano la dimensione massima per essere visualizzato nelle SERP di Google.
    • Meta tag description: la descrizione della pagina è un fattore che Google non considera più ai fini del posizionamento. È però utile scrivere una description che contenga la keyword e che invogli l’utente a cliccarci in quanto comparirà nelle SERP dei risultati organici di ricerca. Anche in questo caso la lunghezza massima è di 156 caratteri.
    • Tag ALT: è il testo alternativo delle immagini. Ogni pagina o post di un blog deve contenere almeno un’immagine.
    • Url: la parola chiave che abbiamo scelto deve sempre essere presente nell’indirizzo della pagina. Per questo motivo è utile gestire ed impostare correttamente i permalink in modo da risultare leggibili.
    • Tag Headings: rappresentano i tag per la formattazione del testo in paragrafi e sotto-paragrafi. È consigliabile utilizzare un solo h1. La gestione e l’inserimento dei paragrafi dipende molto dalla struttura del layout.
    • Keyword: da inserire all’interno del primo paragrafo e per più volte all’interno del testo.

link2Per approfondire leggi questo articolo sul seo copywriting e questo sui contenuti duplicati.

Off-page SEO

Anche se è fondamentale avere pagine ottimizzate, raramente ciò è sufficiente per ottenere i risultati desiderati. L’ottimizzazione off-page (al di fuori delle nostre pagine), riguarda essenzialmente la gestione dei link su altri siti che puntano al nostro.

Negli anni 90′, i due fondatori di Google, Larry Page e Sergey Brin, basarono il loro successo sulla convinzione che le pagine citate con un maggior numero di link fossero le più importanti e meritevoli. Questa fu la vera grande innovazione di Google, che cambiò per sempre il mercato della ricerca su internet. Agli occhi di Google, un collegamento a una pagina è essenzialmente un “voto” per il suo contenuto, esprime in altre parola la volontà, da parte del webmaster o proprietario di un sito, di citare una risorsa importante e degna di essere visitata dagli utenti.

La logica conseguenza di questa premessa è che uno dei principali fattori che incide sulla classifica di Google è il numero di link che puntano verso un sito.  Tuttavia, l’importanza di un sito non è interamente calcolata sulla quantità di link ricevuti. Google considera infatti anche l’importanza della pagina di provenienza del link. Un link da una pagina di un sito autorevole vale di più di uno da un sito di scarsa qualità. E’ quindi teoricamente possibile essere posizionati meglio di un concorrente con un minor numero di link, se questi sono di qualità sufficientemente alta.

Per calcolare l’importanza di una pagina, e di conseguenza la qualità di un link, Google ha ideato una formula che si chiama PageRank, un “voto” da 0 a 10 che assegna ad ogni pagina web in base al numero di link verso quella pagina. La formula del PageRank, per anni rimasta segreta, è stata poi divulgata da Google. Di seguito riporto una versione semplificata della formula:

formula del pagerank

Versione semplificata della formula del PageRank

Dove:

                  • PR (u) è il valore di PageRank della pagina u che vogliamo calcolare.
                  • PR (v) è il valore di PageRank di ogni pagina che collega la pagina u.
                  • N (v) è il numero complessivo di link contenuti nella pagina dove sta il link.
                  • d (damping factor) è un fattore stabilito da Google e che rappresenta la possibilità degli utenti di non seguire nessun link. Di norma assume il valore di 0,85, ma può essere modificato da Google nei singoli casi.

Dalla formula si nota quindi che all’aumentare del numero di link complessivi dei siti che puntano ad u, il PageRank aumenta, ma dipende anche dal PageRank delle singole pagine che linkano u e dal numero di link in uscita da quelle pagine.

Semplificando ulteriormente, possiamo dire che più alto è il valore di PageRank delle pagine che ci linkano e la quantità di pagine che ci linkano, più alto sarà di conseguenza il nostro PageRank. Un alto PageRank, sebbene meno importante rispetto al passato, è ancora un fattore che Google tiene in considerazione per posizionare le pagine nella sua classifica.

Oltre a considerare quantità e qualità dei link ricevuti, ci sono altri fattori legati ai link che incidono sul posizionamento organico. Oltre ad essere un “voto” di qualità, il link è infatti – per i motori di ricerca – anche una informazione tematica. Tenendo a mente questo, sono due i fattori che determinano il valore di ciascun link che punta al nostro sito: il tema della pagina di provenienza e l’anchor text del link. Perché un link in entrata (verso il nostro sito) abbia un effettivo valore per noi, dovrà provenire da una pagina che tratta lo stesso tema (o il più attinente possibile) trattato nella nostra pagina.

Per lo stesso motivo, l’anchor text, che è la parola o le parole che formano il link (quindi quelle cliccabili) dovrà essere pertinente col tema che stiamo trattando. Per esempio, se il nostro obiettivo è posizionarci con la parola chiave “posizionamento su Google“, il massimo del valore per noi è di ricevere link con l’anchor text contenente le parole “posizionamento su Google“, ossia la nostra keyword di riferimento. In questo modo, il motore di ricerca considererà la nostra pagina pertinente con quella query.

L’attività “off-page” consiste quindi per lo più nella gestione della link pupularity (popolarità da link), ed è una parte molto importante del processo. Questa parte è spesso più lunga e difficoltosa di quella “on-page”, poiché non abbiamo il controllo diretto sui siti degli altri. Per gestire la link popularity occorre, come abbiamo detto, ottenere link verso il proprio sito da altri siti pertinenti e rilevanti rispetto alla tematica trattata dal sito, ma come fare?

Link earning vs link building

Poiché i link sono segnali di interesse, risulta evidente che ottenere dei link è una naturale conseguenza dell’avere contenuti di qualità sul proprio sito. Ma d’altro canto, l’acquisizione di link inseriti spontaneamente potrebbe risultare un processo lento.

Per questo motivo, molti SEO hanno negli anni ideato diverse tattiche per ottenere link da altri siti in maniera non spontanea. L’issieme di queste tattiche prende il nome di link building (costruzione di link).

Queste tecniche, soprattutto in alcuni settori molto competitivi, sono state utilizzate in maniera eccessiva, arrivando ad essere fenomeni di spam. C’è stato un tempo in cui pratiche come scambio link, link spam su blog e forum, iscrizione compulsiva a directory (liste di link) di dubbia qualità erano pratiche all’ordine del giorno, e funzionavano molto bene per la SEO.

Per arginare questi fenomeni manipolatori, Google aggiorna costantemente i suoi algoritmi di ranking, introducendo nuovi e sempre più sofisticati sistemi per individuare link non naturali – il più famoso dei quali è l’algoritmo chiamato Penguin – o altre tecniche di spam, e prendere provvedimenti di conseguenza, ovvero penalizzare i siti che fanno uso di queste pratiche nelle sue classifiche.

Link earning

Per Link earning (o Linkbait), letteralmente guadagnare link, si intende la produzione di contenuti interessanti al fine di attirare link naturali (“bait” significa infatti “esca”). Se scrivi cose utili, interessanti, divertenti, gli utenti saranno portati spontaneamente a linkare il tuo sito, poiché i link rappresentano in ultima analisi una sorta di “voto” redazionale alla qualità di un contenuto.
L’attività di link earning può essere effettuata mediante la produzione di articoli d’interesse per una determinata nicchia (ricerche, studi, novità, documenti ufficiali, interviste, etc.), ma anche con la realizzazione di contenuti multimediali, come ad esempio video o infografiche. Queste ultime sono attualmente molto in auge per via del loro buon potenziale virale.

LINK-BUILDING-760x637

Guest Blogging

Il Guest Blogging consiste nel cercare blog o riviste online disposte ad ospitare. Si tratta di uno scambio equo: il sito che ospita ottiene nuovi contenuti gratis, chi scrive l’articolo ottiene in cambio un link al suo sito.

Questa attività è un ottimo strumento di pubbliche relazioni (Digital PR) oltre che di link building, ma occorre farlo rispettando alcune semplici regole. E’ buona norma prima di tutto scrivere come se scrivessimo sul nostro sito, se scriviamo infatti articoli di scarsa qualità al solo scopo di ottenere un link perderemmo la fiducia (di conseguenza probabilmente anche al possibilità di essere pubblicati) di chi ci ospita.

Un’altra regola è non farsi ospitare da siti di scarsa qualità o non pertinenti, altrimenti non otterremmo alcun vantaggio.

Digial PR

Le digital PR sono la versione digitale delle relazioni pubbliche, ovvero tutte le attività di comunicazione finalizzate allo sviluppo di relazioni con istituzioni, aziende, organi di stampa, consumatori (ma anche “influencer” come giornalisti e blogger) con l’obiettivo di promuovere un marchio o prodotto.

Gli influencer (traducibile con il neologismo “influenzatore”), come suggerisce la parola stessa, sono persone in grado, grazie alla loro notorietà o autorevolezza riconosciuta, di influenzare l’opinione di altre persone riguardo a un tema (come un prodotto o un brand).

Grazie alle digital PR potremmo, ad esempio, instaurare relazioni con blogger e giornalisti di riviste online con lo scopo di far pubblicare articoli che parlano del nostro prodotto o brand. Naturalmente quest’attività può darci un vantaggio a livello di reputazione, ma – se riusciamo a far includere un link nell’articolo – anche lato SEO.

Quasi sempre (quando non vi è addirittura un pagamento sotto banco), per ottenere un articolo o una recensione positiva, l’azienda regala un suo prodotto al blogger, se non altro per permettergli di provarlo. Le fashion blogger influenti sono abituate a ricevere quintali di vestiti, borse ed oggetti di moda in regalo dalle aziende produttrici.

Commentare

Un altro metodo è quello di commentare su blog e forum di settore inserendo un link ad una pagina del proprio sito. Come per tutte le altre tecniche in questo elenco, c’è un modo giusto ed uno sbagliato per commentare su blog e forum con l’obiettivo di ottenere link.

Mentre è perfettamente lecito rispondere alla domanda di un utente inserendo un link ad un articolo di approfondimento sulla questione posta, tutt’altra cosa è inviare commenti di spam pubblicizzando i propri prodotti (cosa che probabilmente porterebbe, oltre che alla rimozione del tuo link, anche all’espulsione dalla comunità). Dunque, se partecipi alle discussioni ed inserisci link che davvero aiutino gli utenti, questa diventa una buona tecnica di link building.

Ovviamente, in questo caso dovrai avere sul tuo sito informazioni realmente utili, che rispondano alle domande postate dagli utenti, per cui questa pratica è in un certo senso complementare alla tua attività di blogging.

Ti consiglio anche di leggere sempre il regolamento di un forum, e di non postare su blog e forum non pertinenti al tuo settore.

Comprare link

Comprare link è espressamente vietato dalle linee guida di Google: qualunque pubblicità, sia essa banner o pubbliredazionali, che contiene link che passano il PageRank non è consentita.

Ti sconsiglio di effettuare questa pratica in maniera massiva. Sebbene in alcuni casi sia difficile per Google stabilire se un link è stato comprato o meno, è lecito supporre che abbia già stilato una lista di siti che notoriamente praticano la vendita di link, bollandoli come sospetti.

Valuta quindi attentamente la questione, tenendo conto soprattutto del rischio a cui puoi andare incontro.

Local SEO

Google elabora una risposta conoscendo il luogo esatto della richiesta (via ip e browser). E’ stato effettuato uno studio sul modo in cui gli utenti guardano la SERP di Google (pagina dei risultati del motore di ricerca ) ed ha rilevato che l’occhio gravita pesantemente verso le inserzioni Google My Business.

eyetracking serp local seo

Per questo motivo, l’attività di ottimizzazione detta “Local SEO” ha oggi grande rilevanza. Esso si effettua attraverso l’ottimizzazione della pagina Google My Business – il servizio gratuito di Google a cui è necessario iscriversi per apparire nei risultati locali – che si effettua principalmente utilizzando regole simili al SEO “tradizionale”. Per il posizionamento local sono importanti anche altri fattori, come il numero di citazioni (presenza di NAP: nome azienda+indirizzo+telefono su altri siti e directory locali) e il numero di recensioni degli utenti. Ecco un esempio qua sotto con pizzerie:

Schermata 2019-03-22 alle 13.24.01

Iscriversi a Google My Business: https://www.google.it/business

E’ sufficiente seguire la procedura guidata, è semplicissima.

Google My Business è il servizio che Google ha sviluppato per le attività commerciali locali. Attraverso questo servizio, negozianti e imprenditori possono comunicare ai clienti o potenziali tali, tutta una serie di informazioni relative al punto vendita.

Fondamentale: è necessario avere un’attività reale…

Le aziende già presenti su Google Maps, possono rivendicare la proprietà della scheda facilmente, seguendo alcuni semplici passaggi. Le aziende NON ancora presenti su Google Maps, possono crearsi direttamente un account Google My Business, per inserire in un’unica volta, in un unico punto, tutte le informazioni pertinenti ed interessanti legati alla propria attività.

Con l’integrazione dell’account di Google ADS è possibile procedere per attivare inserzioni pubblicitarie!

google my business

SEO Google Shopping e Google News

Google Shopping è un canale promozionale estremamente valido per portare nuovi clienti sul proprio sito e.commerce. Quando un utente cerca su Google un prodotto specifico, oltre ad essere presenti sulla pagina dei risultati i classici annunci AdWords e l’elenco dei primi 10 siti posizionati organicamente per quella chiave, compaiono degli annunci molto vistosi che riportano foto e prezzo del prodotto ricercato. Torna il discorso fatto precedentemente: Google vuole proporre i propri risultati prima di quelli di siti concorrenti!

Google Shopping funziona attraverso google ads quindi si paga!
Come funziona? Intanto bisogna accedere o creare un’account qua:

ttps://www.google.com/retail/solutions/merchant-center/

e qua per avere qualche consiglio su come portare i propri annunci in risalto: https://www.scuolaecommerce.com/quanto-costa-google-shopping/

google_shopping_funzionamento


Google News

Si tratta di un servizio offerto da Mountain View per aggregare le notizie delle principali fonti intorno a un determinato argomento. Argomento che riveste un interesse da parte del pubblico. Le notizie vengono elencate in una pagina specifica raggiungibile dal menu di navigazione e vengono anticipate, in alcuni casi, da un carosello che si posiziona in alto nella serp.

Qua per gestire i tuoi siti e pubblicarli su NEWS: https://news.google.com/publisher

Qua per comprendere meglio tutti i meccanismi: https://www.studiosamo.it/seo/google-news/

SEO e Social Media

I social network possono influenzare il posizionamento sui motori di ricerca?

La risposta è NO, non hanno alcuna influenza diretta sul nostro posizionamento.

Chiunque conosca anche solo i principi base della SEO, sa che i link che puntano a un sito sono un importante fattore per posizionarlo. Secondo molti esperti addirittura il più importante di tutti.

Se una pagina web ottiene molti “Mi piace”, commenti e condivisioni su Facebook, retweet su Twitter, +1 su Google+ etc., è segno che viene considerata e gradita dagli utenti, e quindi si potrebbe pensare che ciò determini un valore anche per i motori di ricerca. In veritài cosiddetti “social signals” (segnali sociali) non sono un fattore di ranking. Ecco la sua dichiarazione di Google (Cutts):

Le pagine Facebook e Twitter sono trattate come qualunque altra pagina nel nostro indice web, quindi se qualcosa accade su Twitter o su Facebook e siamo in grado di eseguire la scansione, allora possiamo restituirla nei nostri risultati di ricerca. Ma per quanto riguarda qualcosa di specifico, tipo: “questo ha molti seguaci su Twitter” o “questo ha molti Mi piace su Facebook”, al meglio delle mie conoscenze, al momento non abbiamo nessun segnale del genere nei nostri algoritmi di ranking.

Approfondisci: https://www.studiosamo.it/web-marketing/integrare-seo-social-network/

Monitoraggio Seo e diagnostica

Google Search Console  -> https://search.google.com/search-console/

Questo strumento consente di rispondere ad alcune domande fondamentali:

        • i dai del mio sito vengono trasmessi correttamente a Google?
        • Ci sono errori su cui posso lavorare?
        • Quali sono i dati sulle parole chiave e sulle pagine del mio sito che posso usare per ottimizzarlo?
        • Se il sito contiene malware o è stato hackerato.
        • Il posizionamento delle pagine sulla SERP. Diversi dati sulle parole chiave.
        • Se i visitatori arrivano attraverso parole chiave appropriate.
        • google-search-console-inserimento-prima-proprietà

Selettore Chrome per status http

Gli status code – Codici di stato HTTP

Nella SEO è fondamentale la conoscenza dei codici di stato http, più comunemente chiamati status code, delle pagine Web.

Brevemente si tratta di messaggi che i web server inviano al client in risposta a una richiesta, sono codici numerici a tre cifre divisi in tre grandi famiglie: 2xx, 3xx, 4xx, 5xx.

Sono importanti perché sono indicatori dello “stato di salute” delle nostre pagine.

Li spiego meglio qua: http://www.fabiozanchetta.it/seo-search-engine-optimization-2/

Screamingfrog e altri strumenti permettono un’analisi completa degli status code ma possiamo fare una verifica al volo delle risorse della nostra pagina con lo strumento ispezione di Chrome/Firefox/Safari

Schermata 2019-03-22 alle 15.08.49


SCREAMINGFROG -> https://www.screamingfrog.co.uk/

Scremingfrog funziona esattamente come uno spider (o crawler) dei motori di ricerca, fa un check completo del sito che vuoi analizzare (basta inserire l’URL dell’Homepage di qualsiasi sito) restituendoti velocemente una serie di informazioni fra cui:

      • Meta title e meta description
      • Tag Title
      • Velocità di risposta delle pagine
      • Alt delle immagini
      • Broken link interni e in uscita, pagine di errore e redirect
      • Pagine duplicate
      • Meta robots
      • Attributi Hreflang
    • Lunghezza dei contenuti

E’ un software da scaricare e non è free.


I mega Tools SEO che fanno analisi, diagnostica, ricerca, pianificazione..

SEOZOOM

SEMRUSH

AHREFS

Un po’ di benchmarking: https://caricavincente.it/seozoom-o-semrush/


Direttamente nella barra di ricerca di Google usa site:nomedelsito

Google ti indicherà tutte le risorse indicizzate direttamente nella serp!


Lighthouse tool di google per performance sito: https://developers.google.com/web/tools/lighthouse/

Si tratta di un tool che intercetta diverse esigenze. Può essere uno strumento per sviluppatori e webmaster, da usare nell’ufficio di chi lavora con codice HTML. C’è anche grande spazio per web designer ed esperti SEO. Insomma, difficile fare a meno di questa soluzione tanto attesa.

In sintesi, Lighthouse di Google è uno strumento open-source creato e messo a disposizione gratis per migliorare la qualità delle pagine web. Puoi eseguirlo su qualsiasi risorsa e si divide in audit per misurare le prestazioni, l’accessibilità, la SEO e altro ancora. Da dove iniziare? –> https://blog.serverplan.com/2019/03/21/google-lighthouse/

link2 Tutti i nuovi tool gratuita nel 2019 by ninja marketing

e ancora:

1 . VALUTAZIONE DEI BACKLINK.

Controllo dei link esterni che rimandano al tuo sito e che sono importanti ai fini del posizionamento.

Valuta la qualità dei Backlink ed il grado di popolarità che essi hanno: trova una strategia per migliorare questo aspetto, anche controllando quelli della concorrenza.

Tra gli strumenti gratuiti che puoi utilizzare ti segnalo Backlinkwatch.com: non è richiesta alcuna registrazione e ti permette di avere una panoramica in tempi brevi della tua situazione.

Strumenti più avanzati ma allo stesso tempo più complessi sono:

2 . ANALISI DELLA VELOCITÀ DEL SITO.

La velocità di caricamento di un sito è un fattore importante che incide sul posizionamento: un sito lento e macchinoso viene abbandonato dagli utenti che innervositi corrono a visitare il sito della concorrenza.

Gli strumenti che puoi utilizzare per analizzare questo aspetto sono:

            • Gtmetrix.com che, nella versione gratuita, ti restituisce molte informazioni relative alla velocità del tuo sito, ti assegna un punteggio percentuale e ti consiglia i miglioramenti che dovrebbero essere realizzati.
              Se il punteggio che ottieni è:

                        • Minore del 60%: ti consiglio di rivolgerti al più presto a qualcuno per risolvere i problemi che ti vengono segnalati;
                        • Compreso tra il 60% ed il 75%: in questo caso la tua situazione non è preoccupante ma allo stesso tempo qualche miglioramento può essere fatto;
                        • Maggiore del 75%: in questo caso puoi stare tranquillo.
            • Pingdom Website Speed Test: è uno strumento molto più semplice rispetto al primo analizza una sola pagina web; potresti utilizzarlo quando vuoi fare un controllo veloce.

3 . SCANSIONE DEL SITO E CONTROLLO DEI LINK.

Questa fase è necessaria per valutare l’ottimizzazione interna di un sito: viene infatti verificata l’ottimizzazione dei meta tag (title e description), eventuali link duplicati, link interrotti e così via.

Gli strumenti che puoi utilizzare sono:

            • Xenu, un software desktop gratuito utile per trovare tutti quei link interrotti che generano un Errore 404;
            • Screaming Frog, un software desktop gratuito utile per analizzare title, description, h1, alt delle immagini.

4 . ANALISI DEI CONTENUTI DUPLICATI.

Un altro controllo che ti consiglio di fare è relativo ad eventuali contenuti duplicati del tuo sito.

Per farlo puoi utilizzare Copyscape.com: una volta che ti sei collegato al sito, digita l’indirizzo che vuoi controllare ed avrai l’elenco di tutte quelle pagine che hanno lo stesso contenuto.

Questo controllo è importante per due motivi:

            • Ti permette di sapere se il tuo sito contiene contenuti uguali a quelli di un altro sito;
            • Ti permette di scoprire se qualcuno ha copiato i TUOI contenuti.

5 . RICERCA DELLE PAROLE CHIAVE.

Per scegliere in modo accurato le parole chiave per posizionare il tuo sito ti consiglio di utilizzare lo strumento GRATUITO messo a disposizione da Google, ovvero lo Strumento di Pianificazione delle Parole Chiave.

Utilizzandolo potrai avere informazioni circa:

            • Il numero delle ricerche mensili di una parola chiave;
            • Le parole chiave correlate;
            • Il grado di competitività.

Un altro strumento utile è Ubersuggest che una volta inserita la parola chiave di interesse, restituisce un elenco di tutte le parole chiave correlate basandosi sempre sui dati di Google.

Molto utile soprattutto per le parole chiave a coda lunga.

6. ANALISI DELLE KEYWORDS DELLA CONCORRENZA.

Conoscere le parole chiave utilizzate per la concorrenza è molto importante, soprattutto per capire su quali termini si deve lavorare.

Per farlo puoi utilizzare Semrush che ti permette di:

            • Analizzare un sito, individuando tutte le parole chiave utilizzate per il posizionamento organico, per gli annunci sponsorizzati con AdWords e come si sta muovendo la concorrenza;
            • Analizzare una parola chiave, ovvero il suo grado di competitività, e conoscere quali siti la utilizzano per il posizionamento e per le campagne a pagamento.

7 . SOCIAL MEDIA.

Per conoscere quanti LIKE ha ottenuto la pagina del tuo sito e quante persone l’hanno condivisa, puoi utilizzare SharedCount: una volta collegato al sito, inserisci il link del tuo sito ed in pochi secondi potrai conoscere il numero di Twitter ed il numero di condivisioni su Facebook e Linkedin.

8 . ANALISI DEL TRAFFICO.

Ti consiglio di analizzare in modo costante le statistiche del tuo sito, perché solo in questo modo puoi individuare i miglioramenti necessari.

Ti consiglio di utilizzare Google Analytics, che ti permette di conoscere:

            •  Il numero di visite al sito;
            • Le fonti di traffico (diretto, organico, referral, a pagamento, social)
            • La Geolocalizzazione del Traffico, per conoscere da quale paese arrivano le visite al tuo sito;
            • Le pagine più visitate;
            • Per quanto tempo un utente è rimasto sul sito;
            • Il numero di conversioni.

Queste sono solo alcune delle informazioni che puoi raccogliere con questo strumento e sono fondamentali per capire come funziona il tuo sito.

9 . STRUMENTI DEI MOTORI DI RICERCA.

Devi monitorare continuamente lo stato di salute del tuo sito: contenuti duplicati, errori 404  e così via.
Per farlo ti consiglio di utilizzare:

            • Google Webmaster Tool,  in particolare guarda:
                        • Miglioramenti HTML, che ti permette di scoprire se ci sono title e description duplicati nel tuo sito.
                        • Azioni Manuali, per sapere se il tuo sito è stato penalizzato per un intervento antispam.
                        • Errori di scansione, per sapere quanti errori 404 e quanti errori del sito sono presenti.

10 . ANALISI SEO.

Per posizionarsi sui motori di ricerca è necessario eseguire un’analisi SEO del tuo sito web, per verificare lo stato di partenza e pianificare la strategia da seguire.

Per farlo puoi utilizzare questi due strumenti gratuiti:

            • Woorank: fornisce una revisione del sito dal punto di vista SEO,indicandoti in VERDE quali sono le parti ottimizzate, in GIALLO i punti che devono essere migliorati ed in ROSSO gli errori che devono essere corretti.
              Nello specifico ti fornisce un punteggio da 0 a 100 sulla qualità SEO del tuo sito.
            • Free SEO Analysis di Web Gnomes: anche questo strumento controlla lo stato di ottimizzazione della SEO del tuo sito, assegnando un punteggio e fornendo consigli ed indicazioni su cosa potrebbe essere migliorato.
              La differenza rispetto allo strumento precedente è rappresentata dall’invio di un report finale per mail.

WordPress SEO

WordPress è uno dei più noti e diffusi CMS open source in circolazione.

Un ottimo plugin SEO per WordPress si chiama WordPress SEO by Yoast, e consente di gestire molti aspetti importanti (metatag, sitemap, robots.txt, etc.).

Yoast NON fa Seo ma ci aiuta in alcune semplici procedure e ci indica se le procedure che stiamo eseguendo possono essere indicativaemente buone per Google. Yoast controlla ad esempio la ricorrenza delle parole chiave nella pagina, ci permette di scrivere la snippet in modo chiaro, controlla il numero delle parole, il nome dei file (e gli alt delle immagini), ecc..