1 – INTRODUZIONE ALLA SEO – Search Engine Optimization

link2Una guida gratuita di SEO per principianti redatta da Giorgio Trave

Tutto il SEO al volo con Paolo Libera

I contenuti di questa pagina riprendono le linee guida dello studio dei professionisti seo STUDIO SAMO

1-aorganic-serpSEO è quell’insieme di strategie e pratiche volte ad aumentare la visibilità di un sito internet migliorandone la posizione nelle classifiche dei motori di ricerca, nei risultati non a pagamento, detti risultati  organici (organic result nell’immagine).

S.E.O.  sta per Search Engine Optimization, tradotto letteralmente: “ottimizzazione per i motori di ricerca“.

Queste pratiche sono molteplici e riguardano diversi aspetti di un sito web: l’ottimizzazione della struttura del sito, del codice HTML, dei contenuti testuali, la gestione dei link in entrata ( backlink) ed in uscita (che dal tuo sito puntano verso altri), la velocità del sito.
Tutto si basa sulla coerenza fra la “query” di ricerca e il sito di atterraggio, che deve essere attinente e autorevole (ranking).

Poiché Google è il motore di ricerca di gran lunga più utilizzato al mondo, la maggior parte delle attività SEO riguardano lo studio dell’algoritmo di Google e dei suoi periodici aggiornamenti, e le relative azioni per rendere i siti più graditi a tale algoritmo.

0-seo-infographic_551585aec5c76_w1500

2 – DIZIONARIO SEO

    • SERP: “Search Engine Result Page”, tradotto letteralmente pagina dei risultati del motore di ricerca, è una qualunque pagina di Google che compare dopo che avete inserito il termine o i termini da cercare.
    • Query: è una qualunque ricerca effettuata sul motore. quando inserite una o più parole nel campo di ricerca di Google, state eseguendo una query.
    • Keywords: “parole chiave” (o chiave di ricerca), sono le parole che inserite nel campo di ricerca quando eseguite una query. Per keyword si intendono non soltanto singole parole ma anche stringhe di testo, ad esempio la ricerca “web marketing Bologna” è una keyword.
    • Robot: (detto anche spider o crawler), è il software che i motori di rierca utilizzano per analizzare tutti i siti della rete in modo automatico. I robot girano continuamente per scandagliare tutta la rete, passando di pagina in pagina per mezzo dei link. Effettuano una copia testuale di tutti i documenti visitati e li inseriscono in un indice (vedi indicizzazione). Il robot di Google si chama Googlebot.
    • Indicizzazione: è il processo mediante il quale il robot aggiunge il materiale al database del suo motore di ricerca per restituirlo poi, ordinato in una classifica (vedi ranking) in base alla pertinenza con la chiave di ricerca, quano viene ettettuata una query.
    • Ranking: è la classifica dei risultati rispetto ad una determinata query. Quando inseriamo una keyword, il motore di ricerca restituisce una SERP di risultati ordinati in base alla pertinenza dei documenti indicizzati rispetto a tale parola chiave. Ranking è inoltre sinonimo di posizionamento (vedi), in ambito SEO si dice “fattore di ranking” un qualunque elemento, interno o esterno al sito, che influenza la posizione in classifica.
    • Ottimizzazione: in ambito SEO, ottimizzare significa facilitare il più possibile il lavoro dei robot, fornendogli contenuti facilmente accessibili e rendendo più facile la comprensione da parte del software dell’argomento trattato dal documento.
    • Posizionamento: consiste nel migliorare la posizione di un sito/pagina web nel ranking dei motori di ricerca in relazione a determinate keyword. Il posizionamento (o il miglioramento di esso) è la conseguenza naturale dell’ottimizzazione.

3 – LA SEARCH ENGINE RESEARCH PAGE


Il corpo della SERP (Search Engine Research Page)


Rispetto a solo pochi anni fa, come già detto, la SERP di Google si è notevolmente arricchita e, da un punto di vista SEO, decisamente complicata.
Non si tratta più di un semplice elenco di URL, ma di una pagina che, a seconda della query, fornisce risultati attraverso:

                  • diverse modalità (immagini, video, mappe, notizie);
                  • diverse funzionalità (Knowledge Graph, segnalazioni di recensioni e commenti, box di risposte di Google, ecc);
                • personalizzazioni e geolocalizzazioni (Google cerca di fornire risposte ritagliandole sull’utente e sulla sua localizzazione geografica o linguistica).

Il risultato della query è composto da tre elementi:

snippet_google

  • – il titolo della pagina: cliccandovi accediamo alla pagina stessa;
  • – l’URL: vediamo in verde l’indirizzo della pagina Web; in alternativa possiamo trovare il percorso della pagina (è il breadcrumb, letteralmente “briciola di pane”, cioè il percorso di navigazione all’interno del sito fino a quella pagina; questo dà la possibilità all’utente, ad esempio, di accedere alla categoria corrispondente a quella pagina anziché selezionare la pagina stessa);
  • – lo snippet: si tratta di una descrizione della pagina che può essere prelevata dalla cosiddetta meta description o, in alternativa, viene creato in automatico da Google partendo da un estratto (meta description, paragrafo) della pagina che ritiene attinente alla query. Google da qualche anno ha implementato anche i rich snippet che aggiungono informazioni ai risultati

4 – COME STA CAMBIANDO LA SEO NEL 2019-20

Alla base di una buona indicizzazione su Google ci sono sempre state due pratiche principali: le pratiche offsite, cioè il link building (i link in ingresso) e quelle onsite, cioè la strutturazione dei contenuti e del codice.

I link in entrata sono sempre stati alla base della capacità del motore di ricerca d’interpretare e assegnare un ranking.

Trend di Google 2020

Google negli ultimi anni ha aggiornato i propri algoritmi per raggiungere nuovi obiettivi in ottica di ricerca intelligente-semantica.
Google vuole soddisfare i bisogni degli utenti. Interpretare i contenuti dei siti web per fornire risposte sempre più pertinenti. Vuole colloquiare e comprendere i contenuti vocali dei propri utenti.

E in questo modo la ricerca organica tende sempre di più a scendere benché in realtà quel che sta accadendo è che tutte le query che evocano riferimenti di business avranno sempre meno risposta organica mentre le ricerche puramente informative privilegeranno ancora una serp organica.


Ad esempio “nutrizione gatti grassi”  viene interpretata come una ricerca informativa (e non attiva neanche degli annunci ADS)

Schermata 2019-03-22 alle 10.46.38

Mentre cibo gatti grassi evoca di più una richiesta legata al business e infatti Google ci infila la sua piattaforma Google Merchant (che sta in cima alla SERP), gli annunci ADS e poi l’organico.

Schermata 2019-03-22 alle 10.42.42

Ma quali sono questi grossi filoni di cambiamento? Ne parla approfonditamente l’esperto SEO Serra qua.

In linea di massima potremmo riassumere dicendo che Google vuole:

Richieste vocali

interagire sempre di più con le richieste vocali e fornire le risposte a bisogni specifici che vengono espressi attraverso formule colloquiali. Pensiamo all’ok Google dei dispositivi android e a Google Home. Ne parla approfonditamente Ninja Marketing qui.  Nella pratica cambierà molto la strategia di base anche a livello di seo copywriting. Meno keyword e più concetti. Più longtail e più local business.


Dati Strutturati (rich snippet e schema.org)

Fornire risposte più strutturate e più utili per l’utente. Qui entrano in scena i rich snippet e schema.org. Il Rich Snippet, arricchisce il risultato dello snippet normale di google (il sito nella SERP con “titolo”, “url” e “descrizione”) con elementi aggiuntivi che verranno visualizzati dall’utente su Google che, come vedremo dopo, possono essere stelline (valutazioni/recensioni), prezzi, video e nominativo dell’autore che ha realizzato tal contenuto.10ricette-su-serp-googleSchema.org è il nuovo vocabolario utilizzato dai crawler per interpretare le informazioni sui siti Web e sulle varie pagine. L’obiettivo è quello di migliorare la ricerca web creando uno schema di markup dei dati strutturati per gli snippet supportato dai principali motori di ricerca relativi al “rating”, alle “persone”, ai “luoghi”, agli “eventi”, le “ricette” ecc.. Ecco un esempio di come e dove implementare i markup di schema.org:

Approfondisci schema.org qui


Google generated content

Come anticipato con schema.org fornire risposte generate direttamente da Google (grazie ad integrazione Google MyBusiness e Google ADS) come quella qua sotto relativa alla query Hotel+Rimini. Schermata 2019-03-22 alle 11.51.57


Local search

Già da tempo Google fornisce risposte geolocalizzate che intercettano i dati di Google My Business. Ormai non è più necessario cercare pizzeria torino.. è sufficiente scrivere pizzeria!


Semantic search

Interpretare i contenuti dei siti web. Capire il contesto insomma. E qui ci addentriamo nel web semantico e nel mondo degli algoritmi di Google e in particolare di RankBrain.Rankbrain è un componente del più grosso algoritmo Hummingbird, che tra le altre cose custodisce altri algoritmi dei quali hai già sicuramente sentito parlare, come per esempio Panda, Pigeon, Penguin e Pirata.

002-rankbrainimage5


Nella pratica per assecondare le novità di Google è necessario lavorare sulla qualità delle proprie pagine web. Cosa significa?

Aumentare il CTR (click trough rate, cioè il numero di click sul sito rispetto al numero delle visualizzazioni dello stesso) delle singole pagine

Aumentare le conversioni che devono essere impostate su ADS o Analytics (ad esempio se ho una landing page che fa lead generation google vuole che la mia pagina produca molti lead!)

Lavorare su SEO Copywriting emozionale. Insomma non più “Cibo in scatola per Gatti Grassi – FattyCatPlus – Acquista ora” ma “Il tuo gatto tornerà felice e smilzo con FattyCatPlus, il cibo per gatti in scatola che piace al 93% dei gatti sovrappeso.


5 – SEO: COME FUNZIONA UN MOTORE DI RICERCA

Uno sguardo dentro Google

Schermata 2019-03-22 alle 12.06.52

Per praticare ogni attività SEO è necessario in primis capire come opera un motore di ricerca. Un motore di ricerca non opera sui server ma ha possibilità di scansionare solo i contenuti renderizzati. Insomma Google lavora solo sul primo settore dell’immagine qui sopra!

Approfondimento tecnico su come funziona un motore di ricerca nelle sue tre fasi:

    1. Scansione (crawl): esegue ricerche su Internet per cercare contenuti, controllando il codice / i contenuti per ciascun URL trovato.
    1. Indicizzazione (index): archivia e organizza i contenuti trovati durante il processo di scansione. Una volta che una pagina è nell’indice, viene processata per essere visualizzata come risultato per le query pertinenti.
    1. Ordinamento e Ranking: fornisce i contenuti che risponderanno meglio alla query di un ricercatore, il che significa che i risultati sono ordinati dal più rilevante al meno rilevante e viene creata la SERP.

Per approfondire puoi leggere quest’articolo sui motori di ricerca.

Gli algoritmi di GOOGLE

Google aggiorna di tanto in tanto il suo algoritmo, raffinandolo sempre più, per dare agli utenti risultati migliori ed evitare la manipolazione dei risultati da parte dei SEO meno corretti (vedi Black Hat) e di presentare tra i primi risultati le pagine che diano effettivamente un valore agli utenti.

Alcuni tra i più significativi sono stati Google Panda nel 2011 e Google Penguin nel 2012, quest’ultimo particolarmente rilevante poiché riguarda i link in ingresso di un sito. Essi hanno arginato alcuni fenomeni come la produzione di contenuti di scarso valore o la partecipazione a schemi di link al fine di manipolare il PageRank, penalizzando diversi siti nei risultati di ricerca.

Il 22 maggio 2013 è stato rilasciato l’aggiornamento Penguin 2.0, un ulteriore sviluppo di Penguin, reso maggiormente sofisticato. Nel video seguente, apparso il 13 maggio del 2013 (pochi giorni prima del rilascio di Penguin 2.0).

link2Un bel compendio aggiornato a marzo 2019 degli algoritmi di Google
E poi per approfondire puoi leggere questo articolo su Google Panda, questo su come fare seo dopo google penguin e quest’altro su Google Hummingbird.

L’attività SEO nel dettaglio

L’attività SEO comprende diverse fasi di tipo sia analitico/strategico che operativo. Sul piano operativo, per ottimizzare un sito occorre tenere in considerazione molti fattori diversi. Un approccio originale per descrivere i principali tra questi fattori è stato realizzato da Search Engine Land, una nota ed autorevole rivista americana del settore. Search Engine Land ha realizzato una tavola periodica dei fattori di ranking (che aggiorna periodicamente man mano che Google aggiorna il suo algoritmo).

tavola periodica fattori seo 2013 SearchEngineLand

6 – SEO ONPAGE: PAROLE CHIAVE

La fase strategica SEO: la scelta delle keywords

Questa fase è fondamentale, qualunque attività SEO risulta essere priva di senso se non viene effettuata prima un’analisi accurata delle parole chiave da scegliere per la propria campagna. La ricerca delle parole chiave “migliori” può essere effettuata con strumenti software appositi, interviste agli utenti, analisi della concorrenza (benchmarking competitivo) e utilizzando lo stesso motore di ricerca.

Per il successo di una campagna SEO è consigliabile selezionare parole chiave non troppo generiche, poiché risulterebbe molto difficile o addirittura impossibile raggiungere buoni risultati in tempi utili, ma neppure troppo specifiche, poiché, se sono poco cercate, generano di conseguenza poco o nessun traffico al sito.

Nella scelta delle keyword è applicabile la teoria della “Long Tail” di C. Anderson, secondo la quale i prodotti di nicchia avranno molte più possibilità di profitto. Per applicare questa teoria in ottica seo, è quindi preferibile scegliere molte parole chiave specifiche (con meno concorrenza e tasso di conversione maggiore) piuttosto che poche generiche (con molta concorrenza e basso tasso di conversione). Per approfondire con studio samo: coda lunga e posizionamento nei motori di ricerca:

seo-coda-lunga-Long-Tail
un esempio di strategia SEO “coda lunga”

Quali parole vengono usate per cercare alcuni argomenti? Quanta concorrenza e che volume di ricerca hanno?Ci sono diversi strumenti che aiutano in questo lavoro:

->strumento per le parole chiave di Google AdWords. Questo strumento offre dati statistici sul numero di ricerche mensili, globali o per singolo Paese, che vengono effettuate dagli utenti con una determinata chiave di ricerca

->Ubersuggest by Neil Patel, uno strumento in parte gratuito che suggerisce le parole chiave per un dato argomento e che permette di ricercare le parole più utilizzate per un certo dominio (e quanto stanno effettivamente performando)

->SEOZOOM, SEMRUSH, AHREFS (ecc..): strumenti a pagamento (ma con demo online da provare) che offrono tutti gli strumenti più utili per un’analisi seo e una pianificazione di progetti di web marketing

Ubersuggest di Neil Pater, uno dei migliori tools (in parte gratuito) per il SEO. In questo esempio chiediamo di aiutarci con i suggerimenti sulla parola chiave “surf camp

Il CANONICAL. Come spiegare a Google qual è la pagina giusta da prendere in considerazione tra due simili o uguali


canonical URL sono qualcosa di molto importante dal punto di vista SEO e sono utili anche per indicizzare meglio i propri contenuti originali senza che vengano “rubati”.

Nel caso avessi una singola pagina accessibile da più URL o da pagine diverse con contenuti simili (ad esempio una pagina con una versione sia mobile che desktop), Google li vede come versioni duplicate della stessa pagina. Google sceglierà un URL come versione canonica e lo sottoporrà a scansione, e tutti gli altri URL saranno considerati URL duplicati e scansionati meno spesso.

Se non comunichi esplicitamente a Google quale URL è canonico, Google farà la scelta per te o potrebbe considerarli entrambi di uguale peso, il che potrebbe portare a comportamenti indesiderati.

-> Guida al Canonical di Valentino Mea

Il rel=canonical è un elemento HTML che serve a comunicare ai motori di ricerca, in presenza di due URL con contenuto identico o simile, qual è la pagina canonica, ovvero la pagina da considerarsi come “originale”.

In pratica, il rel=canonical si utilizza per evitare le duplicazioni di contenuti, che in ambito SEO possono penalizzare il ranking di un sito.

Immaginate il rel canonical come una specie di “etichetta” applicata a una pagina, che risponde alla domanda “a quale URL appartiene il contenuto originariamente?”. La risposta potrebbe essere:

->a questa stessa pagina (quindi la pagina è canonica);

-> a un’altra pagina (che invece è la pagina canonica, indicando qual è).

Come implementare il rel=canonical

Aggiungi nel codice della per tutte le pagine duplicate un tag che indirizza gli spider dei motori di ricerca alla pagina canonica. Puoi utilizzare un tag nell’intestazione HTTP della pagina per segnalare quando una pagina è un duplicato di un’altra.

Lo stesso canonical dovrà essere utilizzato per tutte quelle pagine che non sono altro che duplicati di questa (per riprendere l’immagine dell’esempio 1) ossia:

  • www.example.com/elenco avrà come canonical http://www.example.com/elenco
  • www.example.com/elenco/nome avrà come canonical http://www.example.com/elenco
  • www.example.com/elenco/cognome avrà come canonical http://www.example.com/elenco

Banalmente per avere in modo veloce una pagina canonica univoca basterebbe avere associato nel proprio database una ed una sola URL ad ogni contenuto.

In generale:

Scegli una delle due pagine e rendila la versione canonica inserendo nelle pagine NON canoniche la stringa

Fa in modo che la tua scelta ricada sulla pagina che ritieni più importante e che potrebbe aiutarti ad aumentare le visite al sito.

Se non t’importa, semplicemente, scegli la pagina che fa più visite e che ha più link.

Esistono diversi motivi per cui conviene scegliere espressamente una pagina canonica in un insieme di pagine duplicate o simili:

  • Specificare l’URL da mostrare nei risultati di ricerca. Gli utenti che arrivano dai motori di ricerca dovrebbero atterrare qui https://sitogomme.it/205-55-15/ e non qui https://sitogomme.it/205-55-15/?ordinamento=prezzo. Una pagina di listing potrebbe generare decine, centinaia o anche migliaia di varianti URL con gli stessi prodotti. Questa situazione per Googlebot è un inferno se non viene gestita correttamente con canonical e “Gestione parametri” in Google Search Console.
  • Consolidare i segnali associati ai link per pagine simili o duplicate. Consente ai motori di ricerca di consolidare le informazioni in loro possesso in merito ai singoli URL (ad esempio, link che rimandano a tali URL) in un unico URL preferito. Ciò significa che i link presenti in altri siti che rimandano a http://sitogomme.it/205-55-15/?ordinamento=prezzo vengono consolidati con i link che rimandano a https://sitogomme.it/205-55-15/. I backlink già sono rari, se poi vengono diluiti in altre pagine senza valore si farebbe un danno SEO molto grave.
  • Semplificare il monitoraggio delle metriche relative a un singolo URL. La presenza di URL multipli (normali e parametrizzati) nei report di Google Analytics o Google Search Console rende più complicato ricevere metriche consolidate per un contenuto specifico.
  • Gestire i contenuti duplicati distribuiti ad altri siti web. Se distribuisci in syndication i contenuti per pubblicarli (o farli pubblicare) su altri domini, ti conviene consolidare il ranking delle pagine con il tuo URL preferito per evitare che le pagine clone vengano indicizzate e posizionate prima delle tue.
  • Aiutare Googlebot a non scansionare pagine duplicate. Per ottimizzare la scansione del sito ed il crawl budget, è preferibile che Googlebot sottoponga a scansione pagine nuove (o aggiornate), anziché le versioni filtrate e duplicate di una stessa pagina. Ricordati che il tempo che Googlebot assegna alla scansione del tuo sito non è infinita.

-> https://www.evemilano.com/rel-canonical/

In caso di contenuti duplicati meglio CANONICAL o REDIRECT?

Utilizza i reindirizzamenti 301 per indicare a Google che un URL reindirizzato è una versione migliore dell’URL prestabilito. Adotta questo metodo solo quando rendi obsoleta una pagina duplicata. Un redirect è più veloce ed efficace del tag rel canonical, il problema è che in certi casi non sarebbe corretto rindirizzare l’utente.

Supponiamo che sia possibile accedere alla tua pagina in diversi modi:

https :// sitogomme.it/home
https :// home.sitogomme.it
https :// www.sitogomme.it

Scegli uno di questi URL come URL canonico e utilizza i reindirizzamenti 301 per inviare il traffico dagli altri URL all’URL preferito. Un reindirizzamento 301 lato server sul file htaccess ad esempio è il modo migliore per assicurarsi che utenti e motori di ricerca siano indirizzati alla pagina corretta. Il codice di stato 301 indica che una pagina è stata spostata definitivamente in una nuova posizione come abbiamo già appurato.

Approfondisci: https://www.roberto-serra.com/canonical-url-cose-e-perche-non-puoi-farne-a-meno-lato-seo/

7 – SEO ONSITE: OTTIMIZZAZIONE CODICE HTML, ROBOT.TXT E HTACCESS

Ottimizzazione SEO del codice HTML, Robots.txt e Htaccess

Si definisce SEO “on-page” (o “on-site“) l’insieme delle attività di ottimizzazione all’interno delle pagine di un sito. Questa è solamente una parte dell’attività SEO, l’altra faccia della medaglia è definita di conseguenza “off-page” (o “off-site“) ed è l’insieme di attività di gestione dei link in ingresso (inbound link o backlink) verso un sito, che sono un segnale importante per i motori di ricerca quando giudicano l’autorevolezza di un sito.

L’ottimizzazione on-page a sua volta si può suddividere in due aree distine:

l’ottimizzazione del codice HTML e della struttura di un sito;

l’ottimizzazione dei contenuti testuali e immagini di un sito.

Aggiungiamo che un buon posizionamento del proprio sito web può dipendere anche da alti elementi, come fattori lato server, quali l’affidabilità e la velocità dello hosting, e da altri fattori come l’anzianità del dominio (alcuni esperti sostengono che domini con più di 5 anni siano ritenuti più affidabili da Google) e il comportamento degli utenti sul sito (tempo di permanenza, numero di pagine visitate), ma i maggiori risultati si ottengono mediante queste due attività.


Ogni sito internet è formato da un codice sorgente HTML che viene letto dal browser (Internet Explorer, Firefox, Safari, Chrome, etc.) e presenta il sito nelle maniera in cui noi lo vediamo. L’ottimizzazione del codice è perciò l’attività di ottimizzare le parti “invisibili” all’utente, ma che incidono sul ranking del sito.

Di particolare importanza sono alcuni tag che formano il codice, come il tag title – che può essere visibile nella parte in alto del browser quando apriamo una pagina web, e nella SERP collegato alla nostra pagina – che serve a specificare il titolo di una determinata pagina.

Snippetbase

Il TAG TITLE deve far capire chiaramente sia agli utenti che ai robot l’argomento trattato nella pagina, deve quindi includere le parole chiave che prendiamo di mira (quelle che pensiamo che gli utenti digitino per trovarci). E’ inoltre opportuno prevedere title diversi per ogni pagina del sito, in maniera tale da ottimizzare ogni pagina per un singolo argomento specifico.

Ad esempio, se vendiamo sedie e tavoli da ufficio, dovremo fare due pagine diverse con rispettivamente “sedie da ufficio” e “tavoli da ufficio” come title, invece di creare un’unica pagina.

Un altro elemento da tenere in considerazione a livello di codice è la meta tag description (che compare come “anteprima” della pagina nella SERP).

Anche se la Meta tag description non incide direttamente sul posizionamento nei motori di ricerca, è estremamente importante per ottenere click through rate (il rapporto tra numero di visualizzazioni e numero di click) dalle pagine dei risultati dei motori di ricerca (e quindi indirettamente può influenzare il ranking). Essa deve contenere perciò un messaggio chiaro, coerente con il contenuto ed accattivante, per invogliare gli utenti a cliccare sul vostro link piuttosto che su quelli della concorrenza.

E’ consigliabile di utilizzare una lunghezza inferiore ai 155 caratteri per fare in modo che Google non tagli la frase a metà, rischiando di far perdere il significato.

tag Heading (h1, h2, h3…) servono a delimitate il testo in paragrafi con titoli e sotto-titoli, sono anch’essi utili per far capire l’argomento del documento sia agli utenti che ai motori. E’ perciò opportuno utilizzare H1 per il titolo principale della pagina, includendo in esso la parola chiave in corrispondenza con il tag tile (si noti che sono due cose distinte: l’h1 appare nel documento come titolo ed è visibile agli utenti, il title è visibile nella linguetta de browser ed appare collegato nella SERP).

Il testo alternativo (alt) è un attributo da aggiungere nelle immagini. I robot non riescono a leggere il testo contenuto nelle immagini, perciò è importante aggiungere questo attributo per far capire ai motori di ricerca che cosa l’immagine rappresenta.

Gli URL delle pagine sono ottimali se non contengano caratteri come “?”, non scansionabili da alcuni robot e se contengono anch’essi una indicazione sul contenuto della pagina. Dovremo avere ad esempio, non

http://www.miosito.it/scheda-prodotto?=3456722

ma

http://www.miosito.it/sedie-da-ufficio

Bisogna anche che il codice sia ben scritto e non contenga uso eccessivo di javascript/ajax, poiché i motori di ricerca prediligono pagine con rapporto testo/codice a favore del testo.

Un altro elemento importante riguarda la struttura del sito stesso ottimale se gerarchica  perché facilmente scansionabile dai robot.

struttura-sito-web

Un esempio di struttura “ad albero” comprensibile per i motori di ricerca.

Bisogna anche verificare ed eventualmente sistemare la presenza di link non funzionanti all’interno del nostro sito, poiché un numero eccessivo di “broken link” può far supporre ai motori che il sito sia abbandonato.

Per approfondire leggi anche come ottimizzare la meta tag description e come ottimizzare il tag title. Puoi anche leggere questa  guida all’ottimizzazione del codice HTML.

LA SITEMAP

Per creare una mappa in XML, RSS, TESTO:

https://support.google.com/webmasters/answer/183668?hl=it

es. per un singolo URL

xml version="1.0" encoding="UTF-8"?>
 xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"> 
  
    http://www.example.com/foo.html
    2018-06-04
  

Come caricarla sul sito e renderla utile per il SEO

-> Utilizzare Google Search Console -> Mappa del Sito

-> Caricarla con un plugin del proprio CMS (es. per wordpress YoastSeo)

Esistono per fortuna dei generatori automatici di sitemap in XML come: https://www.xml-sitemaps.com/

Schermata 2019-03-22 alle 14.17.29

On-page SEO: ottimizzazione dei contenuti (SEO Copywriting)

I contenuti sono in verità la parte più importante della SEO, infatti i motori di ricerca evoluti, come Google, riescono a leggere i contenuti testuali di un documento, “capendone il significato” ed attribuendone un punteggio di qualità e pertinenza rispetto alle query. L’importanza dell’attività di creazione di contenuti di qualità è esemplificata dal noto mantra della SEO “Content si King“, il contenuto è Re (frase attribuita a Bill Gates).

Processed with VSCO with m5 preset

Processed with VSCO with m5 preset

content is king bill gates

E’ opportuno quindi che un sito contenga realmente contenuti utili e interessanti che creino un valore per gli utenti al fine di ottenere un buon posizionamento sui motori di ricerca. Un sito povero di contenuti non potrà essere ben posizionato, o comunque sarà difficile mantenere la posizione nel lungo periodo.

Un chiaro esempio e Wikipedia, che risulta tra i primi risultati per un gran numero di chiavi di ricerca. Per garantire la presenza di contenuti di qualità sul proprio sito, è bene anche aggiornarlo aggiungendo nuovi testi con una certa frequenza. Per questo motivo, aprire un blog aziendale integrato nel proprio sito è il miglior modo per ottenere un buon posizionamento duraturo nel tempo.

E’ di importanza fondamentale, oltre ad avere buoni contenuti, avere contenuti unici, quindi non copiati da altri siti. Google si accorge quando un contenuto non è originale e lo penalizza drasticamente nei suoi risultati.

Naturalmente, il contenuto dovrà includere le parole chiave con cui si vuole essere trovati, ma in maniera tale da non risultare innaturale per il visitatore. Google e gli altri motori di ricerca moderni utilizzano sistemi di analisi semantica del testo che comprendono la sinonimia e la correlazione tra termini.

Data questa evoluzione, possiamo facilmente comprendere come l’eccessiva ripetizione della parola chiave presa di mira (in gergo keyword stuffing) in un testo – come facevano i SEO diversi anni fa, quando gli algoritmi erano meno evoluti – non produce alcun miglioramento nel posizionamento (si rischia anzi di svalutare l’esperienza degli utenti ed ottenere l’effetto contrario). E’ invece opportuno scrivere in maniera naturale, con l’obiettivo di produrre contenuti interessanti per gli utenti, non per i robot.

L’attività di scrivere contenuti SEO è detta SEO Copywriting, ed è l’arte di combinare la buona scrittura con gli elementi dell’ottimizzazione.

Dove sono localizzati i contenuti importanti per il SEO?

        • Tag title: il titolo della pagina è un elemento fondamentale da inserire nella sezione head del documento. La lunghezza del titolo deve essere compreso tra i 40 e i 70 caratteri che rappresentano la dimensione massima per essere visualizzato nelle SERP di Google.
        • Meta tag description: la descrizione della pagina è un fattore che Google non considera più ai fini del posizionamento. È però utile scrivere una description che contenga la keyword e che invogli l’utente a cliccarci in quanto comparirà nelle SERP dei risultati organici di ricerca. Anche in questo caso la lunghezza massima è di 156 caratteri.
        • Tag ALT: è il testo alternativo delle immagini. Ogni pagina o post di un blog deve contenere almeno un’immagine.
        • Url: la parola chiave che abbiamo scelto deve sempre essere presente nell’indirizzo della pagina. Per questo motivo è utile gestire ed impostare correttamente i permalink in modo da risultare leggibili.
        • Tag Headings: rappresentano i tag per la formattazione del testo in paragrafi e sotto-paragrafi. È consigliabile utilizzare un solo h1. La gestione e l’inserimento dei paragrafi dipende molto dalla struttura del layout.
        • Keyword: da inserire all’interno del primo paragrafo e per più volte all’interno del testo.

link2Per approfondire leggi questo articolo sul seo copywriting e questo sui contenuti duplicati.

HTML e ONPAGE SEO, alcuni consigli:

La guida definitiva dell’onpage SEO del 2020 (english)

1 – Da un’analisi di 1 milione di di ricerche su Google è risultata una correlazione netta fra la parole chiave nel tag title e la prima pagina della serp

2 – Se cerchi una parola competitiva (vedere Key Difficulty in tool quali SeoZoom, SemRush, NeilPatel Ubersuggest), noterai che nel top del ranking quasi tutte le pagine usano quella stessa parola chiave nel tag Title e nella meta description.

3 – Usa la tua parola chiave per cui vuoi essere trovato nelle prime 100-150 parole.

4 –  Detto più volte: aiuta Google a spiegare di cosa parla la tua pagina con il tag H1, usando parole chiave che si correlano a quelle del Tag Title.

Title e H1 simili ma non identici (almeno stando ai consigli di Google)

Title:

Google SEO: Should Titles & H1 Tags Be Identical?

H1:

Google SEO: Should Titles & H1 Tags Be Exactly The Same?

5 – Ragiona sulla Keyword Frequency. Google non da indicazioni chiare in merito ma gli esperti sostengono che un numero minimo di volte – fra le 5 e le 10 – la keyword principale dovrebbe essere ripetuta.

6 – Usa link esterni, soprattutto verso link certificati e autorevoli, Google apprezzerà.

7 – Usa url SEO FRIENDLY. Non www.sito.it/23-01-2020/product-22837 ma www.sito.it/tavolini/tavolo-da-pingpong 

8 – Usa il tag ALT per le immagini.

9 – Scrivi contenuti unici e fai un’analisi delle Keywords come il volume di ricerca, la competizione, il PPC medio,  con i tools specifici come

UBERSUGGEST che fornisce come vedremo in seguito moltissimi strumenti in parte gratuiti per esaminare il SEO di un sito (audit) e per suggerire l’utilizzo delle keywords migliori in base il volume di ricerca, il CPC, il Paid Difficulty cioè la concorrenza nella competizione in Google ADS e il SEO difficulty cioè la concorrenza nella ricerca organica)

ma anche Google Trends che dentifica i vocaboli o le informazioni più cercate sul web in un certo arco di tempo o in una specifica area geografica e offre uno screening delle news più ricercate sul momento

Le relazioni: Nofollow – Noindex

L’indicizzazione delle pagine web (e anche la deindicizzazione delle pagine web) dipende dai meta tag robots, che comunicano ai motori di ricerca varie informazioni (ad esempio che keywords abbiamo scelto di utilizzare, i titoli delle pagine, la natura dei link) nonché la nostra volontà di indicizzare o meno una pagina, di inserirla negli archivi dei motori di ricerca, di dare, o non dare, importanza ai link contenuti sulla pagina, ecc. Su questo articolo ci occuperemo di Noindex e Nofollow, attributi che servono a deindicizzare una pagina internet.

Noindex/index

L’attributo rel=”noindex”  comunica a Google la nostra intenzione di non voler indicizzare la pagina, anche se non è detto che Google segua le nostre direttive.

Infatti, anche se Google non la presenterà tra i risultati, la pagina sarà comunque presente sui suoi archivi (Se non vuoi che il contenuto sia salvato nel database di google usa questo tag: )

In questo modo la pagina non esisterà più per i motori di ricerca, ma gli utenti continueranno a visualizzarla: questo farà sì che non si accumulino sul nostro sito delle spam engine, ma al tempo stesso eviterà che i backlink esterni e quelli interni rimandino ad una pagina 404.

Nofollow/follow

L’attributo rel=”nofollow” agisce in maniera diversa rispetto al noindex che, come abbiamo visto, serve a deindicizzare una pagina.
Il nofollow indica a Google di non seguire i link contenuti in una pagina specificané di dar loro peso in termini di posizionamento, attribuendo valore al sito che riceve i link.

Questi meta tag, inseriti nella head della pagina HTML, è dato dal seguente codice:

meta name=”robots” content=”nofollow

Il valore per l’attributo content definisce l’istruzione allo spider relativo alla pagina:

    • index – si richiede di indicizzare la pagina (di inserirla cioè nell’archivio del motore di ricerca);
    • noindex – si richiede di non includere la pagina negli archivi del motore di ricerca;
    • follow – si richiede che tutti i link presenti nella pagina vengano seguiti; questo consente anche il passaggio di valore da una pagina all’altra, come avremo modo di vedere in modo molto ampio;
    • nofollow – si richiede di non seguire i link che da quella pagina puntano verso altre pagine.

Questo metatag si distingue dal file robots.txt perché si riferisce alla singola pagina in cui è presente, e non al sito nel suo complesso e quindi il crawler agirà solo su quella pagina.

I valori relativi all’indicizzazione (index/noindex) e quelli relativi ai link (follow/nofollow) possono essere combinati tra loro.
Abbiamo così quattro alternative:

I valori relativi all’indicizzazione (index/noindex) e quelli relativi ai link (follow/nofollow) vengono combinati tra loro.
Abbiamo così quattro alternative:

meta name=”robots” content=”index, follow

Si richiede di indicizzare la pagine e seguire tutti i link.

meta name=”robots” content=”index, nofollow

Si richiede di indicizzare la pagina ma non seguire i link.

meta name=”robots” content=”noindex, follow

Si richiede di non indicizzare la pagina, ma di seguire i link che da quella pagina portano ad altre pagine.

meta name=”robots” content=”noindex, nofollow

Si richiede allo spider di non indicizzare e non seguire i link di quella pagina.

Quando si cercando di produrre backlink  con il link building/earning è fondamentale verificare se ci sono dei nofollow.

Ma prima di andare oltre, devo spiegare che cos’è il “link juice”. Nel mondo del SEO, ottenere un link da un altro sito web al tuo sito è un grande risultato. Tale legame è visto dai motori di ricerca come un’approvazione. I motori di ricerca considerano come fattore il numero di link che puntano al tuo sito, quando determinano il posizionamento del tuo sito nei loro indici. “Link Juice” è un termine non scientifico per il cosiddetto potere che il link fornisce al tuo sito web o pagina web in questione.

Il nofollow è un attributo che – si può dire – impedisce al link juice di fluire ad un sito web. Questa è una cosa molto comune ad esempio nei link presenti nella sezione commenti di un blog.

Per scoprire se i link che puntano al tuo sito passano il succo del collegamento, devi verificare se i link hanno l’attributo nofollow al loro interno. Se ce l’hanno, allora il link che hai lavorato così duramente per ottenere non sta facendo molto per te, in quanto l’attributo nofollow dice fondamentalmente a Google di ignorare la tua pagina web.

nofollow

Nell’immagine qui sopra vediamo che è possibile  inserire l’istruzione nofollow per singoli link. Questo può essere utile se vogliamo ad esempio permettere allo spider di seguire i link della pagina, tranne alcuni specifici.

Per farlo possiamo utilizzare l’attributo rel=”nofollow” del tag relativo al singolo link.

Es.:

a href=”http://www.altrosito.it” rel=”nofollow”>Altrosito

Perché usare noindex se abbiamo il disallow su Robots.txt? Il file robots.txt impedisce del tutto l’accesso dello spider a determinate cartelle e file tramite l’istruzione Disallow, mentre il meta tag robots permette in ogni caso l’accesso alla pagina, istruendo lo spider sulla fase successiva: se indicizzare o meno la pagina, se deve seguire o meno i link; si tratta di un metodo che permette di istruire in modo ancora più preciso e specifico lo spider.


ROBOTS.TXT

Il robots.txt è un file di testo che permette al Webmaster di fornire una serie di istruzioni ai motori di ricerca riguardo ciò che possono e ciò che non possono fare all’interno del nostro sito.
Queste istruzioni seguono il cosiddetto Robots Exclusion Protocol (REP), le cui specifiche sono disponibili sul sito 
www.robotstxt.org .

robots

Il file robots si presenta nel formato txt e codifica UTF-8 e contiene alcune semplici istruzioni.

Un’istruzione base allo spider è dato da due righe:

– User-agent

Questo elemento specifica a quale spider si applica l’istruzione.

User-agent: *

con * (asterisco) si indica che l’istruzione riguarda tutti gli spider .

Se vogliamo specificare l’istruzione ad uno spider preciso, dovremmo scrivere il nome dello spider. Nel caso di Google lo spider principale è Googlebot.
Scriveremo quindi:

User-agent: Googlebot

L’elenco dei nomi degli spider è disponibile su robotstxt.org.

– Disallow

La riga definita dal valore Disallow dice allo spider quale cartella o file del sito non deve essere visto e indicizzato; serve di fatto ad impedirne l’accesso.

Ipotizziamo di avere una cartella /admin contenente aspetti relativi all’area amministrativa del sito e di volere impedire che venga visto dallo spider. Scriveremo:

User-agent: *
Disallow: /admin/

Possiamo invece impedire, ad esempio, l’indicizzazione su Google Immagini di una cartella contenente le immagini: ad esempio la cartella /immagini del nostro sito (www.miosito.it/immagini).

Scriviamo:

User-agent: Googlebot-Image
Disallow: /immagini/

Possiamo dare istruzioni relative ad un singolo file. In questo caso scriveremo, ad esempio:

User-Agent: *
Disallow: /immagini/foto1.jpg

Allow

Possiamo anche utilizzare il termine Allow per permettere la visione l’indicizzazione di alcune pagine o cartelle.
Può essere utile se abbiamo impedito l’accesso ad una cartella (ad esempio la cartella /immagini) ma vogliamo permettere l’indicizzazione di un file al suo interno (ad esempio il file /immagini/foto1.jpg).
Scriveremo:

User-Agent: Googlebot-Image
Disallow: /immagini/
Allow: /immagini/foto1.jpg

In questo caso impediamo la scansione e l’indicizzazione di tutti i file contenuti dentro la cartella /immagini tranne che per il file foto1.jpg .

Carattere * e $

Il carattere * , rispettato dagli spider di Google e Bing, è utilizzato non solo a livello dell’User-agent (qui sta a significare “tutti gli spider”) ma anche al livello di Disallow, anche insieme ad un secondo carattere accettato $.

Vediamo l’utilizzo di entrambi i caratteri.
Ipotizziamo di voler escludere tutti i file nel formato jpg dalla scansione dello spider.

Scriviamo:

User-Agent: *
Disallow: /*.jpg$

in questo modo indichiamo che tutti i file che terminano con .jpg devono essere esclusi dalla scansione dello spider.

Lo stesso potremo fare, ad esempio, per i file pdf.

User-Agent: *
Disallow: /*.pdf$

Potremmo invece permettere ad esempio l’accesso e la scansione di un file PDF specifico (ad esempio documento1.pdf)
Scriveremo:

User-Agent: *
Disallow: /*.pdf$
Allow: /documento1.pdf

Il carattere * può essere utilizzato anche in altre situazioni.
Ipotizziamo di voler impedire l’accesso degli spider a più cartelle con nomi simili. Ad esempio:
/immagini-mare
/immagini-montagna
/immagini-citta

Possiamo scrivere un’unica regola che impedisca l’accesso a tutte quelle cartelle o sottocartelle che iniziano con il nome “immagini”.
Scriveremo così:

User-Agent: *
Disallow: /immagini*/

Un altro utilizzo dell’asterisco * è quello di bloccare l’accesso a tutti gli URL che comprendono un determinato carattere.
Ad esempio il ? (punto interrogativo).
Scriveremo così:

User-Agent: *
Disallow: /*?


HTACCESS

Il file htaccess (hypertext access) è un semplice file di testo che permette di raffinare, a livello di directory, le direttive per la configurazione di Apache HTTP Server: la piattaforma web server più diffusa al mondo.

In particolare per comprendere quali redirect è opportuno realizzare mediante il file .htaccess uno strumento FONDAMENTALE, da configurare per i nostri siti web, è la Google Search Console. L’ex tool per webmaster di Google ci mostrerà, nella sezione dedicata agli Errori causati da URL (dopo aver fatto accesso a GSC e aver selezionato la proprietà da analizzare dal menù laterale Scansione >> Errori di scansione) tutte le pagine che il motore di ricerca si aspetta di trovare e che al contrario emettono un codice di risposta erroneo, come ad esempio il 404 contenuto non trovato, e su cui è opportuno effettuare dei redirect a contenuti esistenti, ottimizzando così la SEO del prodotto su cui stiamo lavorando.

Modificare l’.htaccess è un’azione molto delicata e che va effettuata solo dopo diverse prove su prodotti di test!

Alcune tecniche SEO grazie al file .htaccess

search engine optimizationVediamo nel dettaglio cosa possiamo fare per migliorare il posizionamento delle nostre pagine sui motori di ricerca, applicando alcuni concetti SEO di base al nostro sito, mediante il file .htaccess.

Riscrittura degli URL

Realizzare degli URL semplificati agli occhi dell’utenza è un’ottima tecnica di base al fine di ottimizzare la SEO on-page di un sito web. Per questo motivo è necessario realizzare dei permalink di facile comprensione, che non abbiano caratteri speciali al loro interno (a parte i caratteri - o _), senza l’estensione del file e possibilmente brevi e incisivi.

Vediamo due veloci esempi di questa applicazione, entrambi per funzionare richiedono che il nostro server Apache abbia attivato il supporto per il mod_rewrite.

Riscrittura dell’URL con elisione dell’estensione

Se le pagine del nostro sito hanno un indirizzo del tipo http://www.sitoesempio.tlp/pagina-esempio.html possiamo riscrivere l’URL in chiave SEO http://www.sitoesempio.tlp/pagina-esempio.

Il codice da inserire nell’.htaccess sarà il seguente:
RewriteEngine on
RewriteRule ^(.*)$ $1.html

Alcuni esempi di Redirect

1) Reindirizzamento da WWW a senza WWW:

RewriteEngine On
RewriteBase /
RewriteCond %{HTTP_HOST} ^www\.(.*)$ [NC]
RewriteRule ^(.*)$ http://%1/$1 [R=301,L]

2) Redirect da senza WWW a WWW:

RewriteEngine On
RewriteCond %{HTTP_HOST} !^www\.
RewriteRule ^(.*)$ http://www.%{HTTP_HOST}/$1 [R=301,L]

(altro codice stesso risulato)

RewriteEngine On
RewriteCond %{HTTP_HOST} ^tuodominio.it [NC]
RewriteRule ^(.*)$ http://www.tuodominio.it/$1 [L,R=301]

3) Redirect da vecchio dominio a nuovo dominio

RewriteEngine On
RewriteCond %{HTTP_HOST} !^www\.vecchiodominio\.com$
RewriteRule (.*) http://www.nuovodominio.com/$1 [R=301,L]
RewriteCond %{HTTP_HOST} !^vecchiodominio\.com$
RewriteRule (.*) http://www.nuovodominio.com/$1 [R=301,L]

(altro codice stesso risulato)

<IfModule mod_rewrite.c>
    RewriteCond %{HTTP_HOST} ^(www\.)?vecchio-dominio\.com [NC]
    RewriteRule (.*) http://nuovo-dominio.com/$1 [R=301,L]
</IfModule>

4) Redirect da vecchio sotto dominio a nuovo sotto dominio

RewriteEngine On
RewriteBase /
RewriteCond %{HTTP_HOST} ^sottodominio.vecchio.com$
RewriteRule ^(.*)$ http://sottodominio.nuovodominio.com/$1 [R=301,L]
RewriteCond %{HTTP_HOST} ^www.sottodominio.vecchiodominio.com$
RewriteRule ^(.*)$ http://sottodominio.nuovodominio.com/$1 [R=301,L]

5) Redirect da vecchio dominio a nuovo sotto dominio

RewriteEngine on
RewriteRule ^(.*)$ http://www.your-new-domain.com/$1 [R=301,L]

OPPURE PROVARE:

Options +FollowSymLinks
RewriteEngine on
RewriteRule (.*)$ http://www.nuovosito.com/$1 [R=301,L]

6) Redirect da vecchia cartella verso nuova cartella:

RewriteRule ^vecchiacartella/(.*)$ /nuovacartella/$1 [R=301,NC,L]

7) Redirect da cartella a nuovo dominio ma stessa cartella:

Redirect 301 /cartella http://www.nuovodominio.com/stessacartella

8) Redirect da cartella verso la cartella root principale:

RewriteRule ^cartella/(.*)$ /$1 [R=301,NC,L]



Di seguito un esempio contenuto all’interno di un file htaccess che include il codice di default di wordpress e un redirect 301.

# BEGIN WordPress
<IfModule mod_rewrite.c>
RewriteEngine On
RewriteBase /
RewriteRule ^index\.php$ - [L]
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule . /index.php [L]
</IfModule>
# END WordPress
#redirect
redirect 301 /vecchio-link http://www.miosito.it/nuovo-link

Riferimenti

-> Approfondisci: https://www.posizionamento-seo.com/search-engine-optimization/seo-htaccess-consigli-tecniche-trucchi/

GUIDA PDF HTACCESS DI ALESSIO POMARO

8 – PAGE RANK

Anche se è fondamentale avere pagine ottimizzate, raramente ciò è sufficiente per ottenere i risultati desiderati. L’ottimizzazione off-page (al di fuori delle nostre pagine), riguarda essenzialmente la gestione dei link su altri siti che puntano al nostro.

Negli anni 90′, i due fondatori di Google, Larry Page e Sergey Brin, basarono il loro successo sulla convinzione che le pagine citate con un maggior numero di link fossero le più importanti e meritevoli. Questa fu la vera grande innovazione di Google, che cambiò per sempre il mercato della ricerca su internet. Agli occhi di Google, un collegamento a una pagina è essenzialmente un “voto” per il suo contenuto, esprime in altre parola la volontà, da parte del webmaster o proprietario di un sito, di citare una risorsa importante e degna di essere visitata dagli utenti.

La logica conseguenza di questa premessa è che uno dei principali fattori che incide sulla classifica di Google è il numero di link che puntano verso un sito.  Tuttavia, l’importanza di un sito non è interamente calcolata sulla quantità di link ricevuti. Google considera infatti anche l’importanza della pagina di provenienza del link. Un link da una pagina di un sito autorevole vale di più di uno da un sito di scarsa qualità. E’ quindi teoricamente possibile essere posizionati meglio di un concorrente con un minor numero di link, se questi sono di qualità sufficientemente alta.

Per calcolare l’importanza di una pagina, e di conseguenza la qualità di un link, Google ha ideato una formula che si chiama PageRank, un “voto” da 0 a 10 che assegna ad ogni pagina web in base al numero di link verso quella pagina. La formula del PageRank, per anni rimasta segreta, è stata poi divulgata da Google. Di seguito riporto una versione semplificata della formula:

formula del pagerank

Versione semplificata della formula del PageRank

formula-pagerank

Dove:

                            • PR (u) è il valore di PageRank della pagina u che vogliamo calcolare.
                            • PR (v) è il valore di PageRank di ogni pagina che collega la pagina u.
                            • N (v) è il numero complessivo di link contenuti nella pagina dove sta il link.
                            • d (damping factor) è un fattore stabilito da Google e che rappresenta la possibilità degli utenti di non seguire nessun link. Di norma assume il valore di 0,85, ma può essere modificato da Google nei singoli casi.

Dalla formula si nota quindi che all’aumentare del numero di link complessivi dei siti che puntano ad u, il PageRank aumenta, ma dipende anche dal PageRank delle singole pagine che linkano u e dal numero di link in uscita da quelle pagine.

Semplificando ulteriormente, possiamo dire che più alto è il valore di PageRank delle pagine che ci linkano e la quantità di pagine che ci linkano, più alto sarà di conseguenza il nostro PageRank. Un alto PageRank, sebbene meno importante rispetto al passato, è ancora un fattore che Google tiene in considerazione per posizionare le pagine nella sua classifica.

Oltre a considerare quantità e qualità dei link ricevuti, ci sono altri fattori legati ai link che incidono sul posizionamento organico. Oltre ad essere un “voto” di qualità, il link è infatti – per i motori di ricerca – anche una informazione tematica. Tenendo a mente questo, sono due i fattori che determinano il valore di ciascun link che punta al nostro sito: il tema della pagina di provenienza e l’anchor text del link. Perché un link in entrata (verso il nostro sito) abbia un effettivo valore per noi, dovrà provenire da una pagina che tratta lo stesso tema (o il più attinente possibile) trattato nella nostra pagina.

Per lo stesso motivo, l’anchor text, che è la parola o le parole che formano il link (quindi quelle cliccabili) dovrà essere pertinente col tema che stiamo trattando. Per esempio, se il nostro obiettivo è posizionarci con la parola chiave “posizionamento su Google“, il massimo del valore per noi è di ricevere link con l’anchor text contenente le parole “posizionamento su Google“, ossia la nostra keyword di riferimento. In questo modo, il motore di ricerca considererà la nostra pagina pertinente con quella query.

L’attività “off-page” consiste quindi per lo più nella gestione della link pupularity (popolarità da link), ed è una parte molto importante del processo. Questa parte è spesso più lunga e difficoltosa di quella “on-page”, poiché non abbiamo il controllo diretto sui siti degli altri. Per gestire la link popularity occorre, come abbiamo detto, ottenere link verso il proprio sito da altri siti pertinenti e rilevanti rispetto alla tematica trattata dal sito, ma come fare?

10 – OFF PAGE SEO E LINK BUILDING

OFFPAGE-SEO

Link earning vs link building

seolink
Poiché i link sono segnali di interesse, risulta evidente che ottenere dei link è una naturale conseguenza dell’avere contenuti di qualità sul proprio sito. Ma d’altro canto, l’acquisizione di link inseriti spontaneamente potrebbe risultare un processo lento.

Per questo motivo, molti SEO hanno negli anni ideato diverse tattiche per ottenere link da altri siti in maniera non spontanea. L’issieme di queste tattiche prende il nome di link building (costruzione di link).

Queste tecniche, soprattutto in alcuni settori molto competitivi, sono state utilizzate in maniera eccessiva, arrivando ad essere fenomeni di spam. C’è stato un tempo in cui pratiche come scambio link, link spam su blog e forum, iscrizione compulsiva a directory (liste di link) di dubbia qualità erano pratiche all’ordine del giorno, e funzionavano molto bene per la SEO.

Per arginare questi fenomeni manipolatori, Google aggiorna costantemente i suoi algoritmi di ranking, introducendo nuovi e sempre più sofisticati sistemi per individuare link non naturali – il più famoso dei quali è l’algoritmo chiamato Penguin – o altre tecniche di spam, e prendere provvedimenti di conseguenza, ovvero penalizzare i siti che fanno uso di queste pratiche nelle sue classifiche.

SONDAGGIO DI SEMRUSH:

Al sondaggio hanno preso parte specialisti di quattro professioni: imprenditori – 38,29%; specialisti interni (in-house) – 30,24%, consulenti SEO / liberi professionisti – 22,44%; e specialisti SEO che lavorano in agenzia – 9,02%.  

-> https://it.semrush.com/blog/14-strategie-di-link-building-scelte-dai-professionisti-nel-2019/

linkbuilding-semrush


Link earning

Per Link earning (o Linkbait), letteralmente guadagnare link, si intende la produzione di contenuti interessanti al fine di attirare link naturali (“bait” significa infatti “esca”). Se scrivi cose utili, interessanti, divertenti, gli utenti saranno portati spontaneamente a linkare il tuo sito, poiché i link rappresentano in ultima analisi una sorta di “voto” redazionale alla qualità di un contenuto.
L’attività di link earning può essere effettuata mediante la produzione di articoli d’interesse per una determinata nicchia (ricerche, studi, novità, documenti ufficiali, interviste, etc.), ma anche con la realizzazione di contenuti multimediali, come ad esempio video o infografiche. Queste ultime sono attualmente molto in auge per via del loro buon potenziale virale.

LINK-BUILDING-760x637

Guest Blogging

Il Guest Blogging consiste nel cercare blog o riviste online disposte ad ospitare. Si tratta di uno scambio equo: il sito che ospita ottiene nuovi contenuti gratis, chi scrive l’articolo ottiene in cambio un link al suo sito.

Questa attività è un ottimo strumento di pubbliche relazioni (Digital PR) oltre che di link building, ma occorre farlo rispettando alcune semplici regole. E’ buona norma prima di tutto scrivere come se scrivessimo sul nostro sito, se scriviamo infatti articoli di scarsa qualità al solo scopo di ottenere un link perderemmo la fiducia (di conseguenza probabilmente anche al possibilità di essere pubblicati) di chi ci ospita.

Un’altra regola è non farsi ospitare da siti di scarsa qualità o non pertinenti, altrimenti non otterremmo alcun vantaggio.


Digial PR?

Le digital PR sono la versione digitale delle relazioni pubbliche, ovvero tutte le attività di comunicazione finalizzate allo sviluppo di relazioni con istituzioni, aziende, organi di stampa, consumatori (ma anche “influencer” come giornalisti e blogger) con l’obiettivo di promuovere un marchio o prodotto.

Gli influencer (traducibile con il neologismo “influenzatore”), come suggerisce la parola stessa, sono persone in grado, grazie alla loro notorietà o autorevolezza riconosciuta, di influenzare l’opinione di altre persone riguardo a un tema (come un prodotto o un brand).

Grazie alle digital PR potremmo, ad esempio, instaurare relazioni con blogger e giornalisti di riviste online con lo scopo di far pubblicare articoli che parlano del nostro prodotto o brand. Naturalmente quest’attività può darci un vantaggio a livello di reputazione, ma – se riusciamo a far includere un link nell’articolo – anche lato SEO.

Quasi sempre (quando non vi è addirittura un pagamento sotto banco), per ottenere un articolo o una recensione positiva, l’azienda regala un suo prodotto al blogger, se non altro per permettergli di provarlo. Le fashion blogger influenti sono abituate a ricevere quintali di vestiti, borse ed oggetti di moda in regalo dalle aziende produttrici.


Commentare?

Un altro metodo è quello di commentare su blog e forum di settore inserendo un link ad una pagina del proprio sito. Come per tutte le altre tecniche in questo elenco, c’è un modo giusto ed uno sbagliato per commentare su blog e forum con l’obiettivo di ottenere link.

Mentre è perfettamente lecito rispondere alla domanda di un utente inserendo un link ad un articolo di approfondimento sulla questione posta, tutt’altra cosa è inviare commenti di spam pubblicizzando i propri prodotti (cosa che probabilmente porterebbe, oltre che alla rimozione del tuo link, anche all’espulsione dalla comunità). Dunque, se partecipi alle discussioni ed inserisci link che davvero aiutino gli utenti, questa diventa una buona tecnica di link building.

Ovviamente, in questo caso dovrai avere sul tuo sito informazioni realmente utili, che rispondano alle domande postate dagli utenti, per cui questa pratica è in un certo senso complementare alla tua attività di blogging.

Ti consiglio anche di leggere sempre il regolamento di un forum, e di non postare su blog e forum non pertinenti al tuo settore.

Comprare link?

Comprare link è espressamente vietato dalle linee guida di Google: qualunque pubblicità, sia essa banner o pubbliredazionali, che contiene link che passano il PageRank non è consentita.

Ti sconsiglio di effettuare questa pratica in maniera massiva. Sebbene in alcuni casi sia difficile per Google stabilire se un link è stato comprato o meno, è lecito supporre che abbia già stilato una lista di siti che notoriamente praticano la vendita di link, bollandoli come sospetti.

Valuta quindi attentamente la questione, tenendo conto soprattutto del rischio a cui puoi andare incontro.

11 – LOCAL SEO

Local SEO

Google elabora una risposta conoscendo il luogo esatto della richiesta (via ip e browser). E’ stato effettuato uno studio sul modo in cui gli utenti guardano la SERP di Google (pagina dei risultati del motore di ricerca ) ed ha rilevato che l’occhio gravita pesantemente verso le inserzioni Google My Business.

HeatMap con https://www.crazyegg.com/the-new-yorker-hotel_heatmap

Per questo motivo, l’attività di ottimizzazione detta “Local SEO” ha oggi grande rilevanza. Esso si effettua attraverso l’ottimizzazione della pagina Google My Business – il servizio gratuito di Google a cui è necessario iscriversi per apparire nei risultati locali – che si effettua principalmente utilizzando regole simili al SEO “tradizionale”. Per il posizionamento local sono importanti anche altri fattori, come il numero di citazioni (presenza di NAP: nome azienda+indirizzo+telefono su altri siti e directory locali) e il numero di recensioni degli utenti. Ecco un esempio qua sotto con pizzerie:

Schermata 2019-03-22 alle 13.24.01

Iscriversi a Google My Business: https://www.google.it/business

E’ sufficiente seguire la procedura guidata, è semplicissima.

Google My Business è il servizio che Google ha sviluppato per le attività commerciali locali. Attraverso questo servizio, negozianti e imprenditori possono comunicare ai clienti o potenziali tali, tutta una serie di informazioni relative al punto vendita.

Fondamentale: è necessario avere un’attività reale…

Le aziende già presenti su Google Maps, possono rivendicare la proprietà della scheda facilmente, seguendo alcuni semplici passaggi. Le aziende NON ancora presenti su Google Maps, possono crearsi direttamente un account Google My Business, per inserire in un’unica volta, in un unico punto, tutte le informazioni pertinenti ed interessanti legati alla propria attività.

Con l’integrazione dell’account di Google ADS è possibile procedere per attivare inserzioni pubblicitarie!

google my business

SEO Google Shopping e Google News

Google Shopping è un canale promozionale estremamente valido per portare nuovi clienti sul proprio sito e.commerce. Quando un utente cerca su Google un prodotto specifico, oltre ad essere presenti sulla pagina dei risultati i classici annunci AdWords e l’elenco dei primi 10 siti posizionati organicamente per quella chiave, compaiono degli annunci molto vistosi che riportano foto e prezzo del prodotto ricercato. Torna il discorso fatto precedentemente: Google vuole proporre i propri risultati prima di quelli di siti concorrenti!

Come funziona? Intanto bisogna accedere o creare un’account qua:

ttps://www.google.com/retail/solutions/merchant-center/

e qua per avere qualche consiglio su come portare i propri annunci in risalto: https://www.scuolaecommerce.com/quanto-costa-google-shopping/

google_shopping_funzionamento


Google News

Si tratta di un servizio offerto da Mountain View per aggregare le notizie delle principali fonti intorno a un determinato argomento. Argomento che riveste un interesse da parte del pubblico. Le notizie vengono elencate in una pagina specifica raggiungibile dal menu di navigazione e vengono anticipate, in alcuni casi, da un carosello che si posiziona in alto nella serp.

Qua per gestire i tuoi siti e pubblicarli su NEWS: https://news.google.com/publisher

Qua per comprendere meglio tutti i meccanismi: https://www.studiosamo.it/seo/google-news/

12 – SEO E SOCIALMEDIA

SEO-and-Social-Strategy

I social network possono influenzare il posizionamento sui motori di ricerca?

La risposta è NO, non hanno alcuna influenza diretta sul nostro posizionamento.

Chiunque conosca anche solo i principi base della SEO, sa che i link che puntano a un sito sono un importante fattore per posizionarlo. 

Se una pagina web ottiene molti “Mi piace”, commenti e condivisioni su Facebook, retweet su Twitter, +1 su Google+ etc., è segno che viene considerata e gradita dagli utenti, e quindi si potrebbe pensare che ciò determini un valore anche per i motori di ricerca. In veritài cosiddetti “social signals” (segnali sociali) non sono un fattore di ranking. Ecco la sua dichiarazione di Google (Cutts):

Le pagine Facebook e Twitter sono trattate come qualunque altra pagina nel nostro indice web, quindi se qualcosa accade su Twitter o su Facebook e siamo in grado di eseguire la scansione, allora possiamo restituirla nei nostri risultati di ricerca. Ma per quanto riguarda qualcosa di specifico, tipo: “questo ha molti seguaci su Twitter” o “questo ha molti Mi piace su Facebook”, al meglio delle mie conoscenze, al momento non abbiamo nessun segnale del genere nei nostri algoritmi di ranking.

Approfondisci: https://www.studiosamo.it/web-marketing/integrare-seo-social-network/

I social media aiutano a rafforzare la brand awareness e il CTR, un fattore molto importante per la SEO. Dopotutto, Google, pur non ammettendolo tramite dichiarazioni ufficiali, mostra una decisa preferenza per i siti web popolari tra gli utenti.

Ciò non significa appunto che tali canali siano irrilevanti per il marketing online. Google non sta prendendo in considerazione i fattori dei social media per ragioni piuttosto comprensibili dato che i dati in questione sono frammentati e inaffidabili.

Tuttavia, ci sono buoni motivi per considerare le operazioni di sensibilizzazione sui social media parte integrante della costruzione del marchio. E mentre i social media non influiscono, di fatto, sul posizionamento di un sito web, possono avere un grande effetto a lungo termine sui fattori che contano per la SEO.

12 – SEO E DIAGNOSTICA

Google Search Console, Screaming Frog, SeoZoom, Analytics..


Google Search Console 

-> https://search.google.com/search-console/

Questo strumento consente di rispondere ad alcune domande fondamentali:

-> Qual è il rendimento del mio sito su Google?

-> I dati del mio sito vengono trasmessi correttamente a Google?

-> Ci sono errori su cui posso lavorare? Pagine non indicizzate? Risorse che hanno cambiato url? Risorse che vengono carictae troppo lentamente?

-> Quali sono le parole chiave sulle pagine del mio sito che performano meglio? Qual è il loro CTR?

-> Qual è il posizionamento delle pagine sulla SERP? Quali informazioni posso ricavare sulle parole chiave?

-> Il mio sito è usabile sui tutti i device?

link2Tratto da: https://marketers.media/google-search-console-guida-base/ <- guida per accedere ed utilizzare la search console link2Le funzionalità della Google Search Console

Per aggiungere un sito di proprietà sulla Google Search Console è sufficiente aggiungere la proprietà inserendo un codice di controllo ad esempio nel file header.php (ma ci sono anche altri metodi).


Selettore Chrome per status http

Screamingfrog e altri strumenti permettono un’analisi completa degli status code ma possiamo fare una verifica al volo delle risorse della nostra pagina con lo strumento ispezione di Chrome/Firefox/Safari

Schermata 2019-03-22 alle 15.08.49


SCREAMINGFROG -> https://www.screamingfrog.co.uk/

Scremingfrog funziona esattamente come uno spider (o crawler) dei motori di ricerca, fa un check completo del sito che vuoi analizzare (basta inserire l’URL dell’Homepage di qualsiasi sito) restituendoti velocemente una serie di informazioni fra cui:

        • Meta title e meta descriptionì
        • Tag Title
        • Velocità di risposta delle pagine
        • Alt delle immagini
        • Broken link interni e in uscita, pagine di errore e redirect
        • Pagine duplicate
        • Meta robots
          • Lunghezza dei contenuti

E’ un software da scaricare e nella versione free permette di scansionare al massimo 500 url

ScreamingFrog-fzit


I grandi Tools SEO che fanno analisi, diagnostica, ricerca, pianificazione..

SEOZOOM

SEOZoom-logo
Noi analizzeremo questo software, l’unico italiano e fra i migliori al mondo

Grazie a questo strumento potrai prendere il pieno controllo dei tuoi progetti lato SEO:

    • Creando dei progetti per ogni sito web
    • Analizzando le keyword dei tuoi competitor
    • Analizzando tutte le performance SEO di un sito web
    • Analizzando crolli anomali di traffico e miglioramenti di ranking
    • Spiando le strategie dei competitor principali ed il posizionamento giornaliero delle parole chiave per le quali intendi posizionarti
    • Intercettando i cambi di algoritmo di Google e visualizzando l’eventuale impatto in caso di penalizzazione
    • Analizzando il tuo profilo backlink

Si tratta dell’unica piattaforma che include più di venti milioni di keywords per il mercato italiano e che ti permette di avere una panoramica completa del tuo settore di riferimento grazie alla quale potrai:

Esempio di analisi keyword “SURF HOUSE”
Altri tools “simili”:
-> SEMRUSH

-> AHREFS

Un po’ di benchmarking: https://caricavincente.it/seozoom-o-semrush/ o https://www.neting.it/blog/semrush-seozoom-fattori-di-posizionamento-di-un-sito-web-a-confronto.html


Direttamente nella barra di ricerca di Google usa site:nomedelsito

Google ti indicherà tutte le risorse indicizzate direttamente nella serp!


Lightouse

Lighthouse tool di google per performance sito: https://developers.google.com/web/tools/lighthouse/

Si tratta di un tool che intercetta diverse esigenze. Può essere uno strumento per sviluppatori e webmaster, da usare nell’ufficio di chi lavora con codice HTML. C’è anche grande spazio per web designer ed esperti SEO. Insomma, difficile fare a meno di questa soluzione tanto attesa.

In sintesi, Lighthouse di Google è uno strumento open-source creato e messo a disposizione gratis per migliorare la qualità delle pagine web. Puoi eseguirlo su qualsiasi risorsa e si divide in audit per misurare le prestazioni, l’accessibilità, la SEO e altro ancora. Da dove iniziare? –> https://blog.serverplan.com/2019/03/21/google-lighthouse/

link2 Tutti i nuovi tool gratuita nel 2019 by ninja marketing


14 – SEO AUDIT?

Un SEO Audit è un’analisi tecnica dettagliata sullo stato di ottimizzazione di un sito web e deve evidenziare chiaramente tutte le modifiche che devono essere apportate per ottenere una posizione migliore nei motori di ricerca (SERP). In questa occasione è controllato e verificato elementi come l’architettura del sito web, la navigabilità, la struttura dei link interni, l’ottimizzazione on page e dei contenuti, crawling, indicizzazione, ecc.

five-seo-strategies-infographic-800

La maggior parte dei siti web, infatti, non rispetta le linee guida base offerte da Google. Il risultato è un progetto la cui crescita è lasciata puramente al caso. Quindi se il tuo progetto è in uno stato ancora embrionale valuta attentamente la possibilità di essere seguito da un professionista della SEO che possa dare le giuste direttive al team di sviluppo.

Quando fare una SEO Audit? Il processo di analisi SEO andrebbe fatto quando: quando si vuole lanciare un nuovo progetto web; quando si vuole verificare la solidità SEO del proprio sito web; quando si ha un sito con una certa anzianità e si vuole comprendere come procedere nello sviluppo; quando si subiscono cali improvvisi di traffico; quando si preventivano attività di restyling e/o cambio tecnologia di sviluppo; quando vengono rilasciati aggiornamenti algoritmici e si ha il timore di incorrere in penalizzazioni algoritmiche o manuali;

Tratto da: https://wearemarketers.net/seo-audit/ – Copyright © wearemarketers.net

14 – STATUS CODE HTTP

Gli status code – Codici di stato HTTP

Nella SEO è fondamentale la conoscenza dei codici di stato http, più comunemente chiamati status code, delle pagine Web.

      • Possono essere molto utili quando spostiamo delle risorse su URL o Domini differenti e non vogliamo perdere le indicizzazioni che abbiamo sudato!
      • Brevemente si tratta di messaggi che i web server inviano al client in risposta a una richiesta, sono codici numerici a tre cifre divisi in tre grandi famiglie: 2xx, 3xx, 4xx, 5xx.

        Sono importanti perché sono indicatori dello “stato di salute” delle nostre pagine.

Un codice di stato HTTP è la risposta del server alla richiesta di un browser, identificata con un codice a tre cifre.

elenco-codici-di-stato-http-1

Conoscere quali sono e cosa significano i codici di stato HTTP, noti anche come status code e così individuati anche dal nostro SEO spider, è di fondamentale importanza per gestori dei siti e specialisti SEO, perché permette di capire come funziona in concreto la navigazione del sito, se ci sono problemi nel raggiungere determinate risorse o se alcuni errori possono pregiudicare il ranking delle pagine.

Li spiego meglio qua: https://www.fabiozanchetta.it/seo-search-engine-optimization-2/

oppure: https://kinsta.com/it/blog/codici-di-stato-http/

REDIRECT DI UN DOMINIO O URL?

-> https://www.codingcreativo.it/redirect-301/

Il codice 301 è appunto un codice di stato del protocollo http che indica al client, che ha effettuato la richiesta al server, che la pagina è stata spostata in maniera definitiva.

Il codice di stato 302 del protocollo http indica invece che lo spostamento della pagina è provvisorio.

Quindi con il codice 301 il server comunica al client che la pagina web non si trova più, in maniera definitiva e permanente, al link originale.

Il motore di ricerca in questo modo ha le informazioni necessarie per modificare il proprio database, aggiornando la nuova URL e gli indici che indicano la nuova posizione della URL nelle SERP.

Pertanto gestire correttamente i redirect è un’operazione importante per la SEO, altrimenti il sito non viene indicizzato correttamente.

Quindi quando, per qualsiasi motivo, il sito deve essere spostato in maniera permanente e definitiva devo usare il redirect 301.

In questo modo si evita anche l’errore 404 ovvero pagina non trovata.

Ci sono vari modi per realizzare un redirect 301, vi ricordo infatti che si può fare semplicemente utilizzando il codice php.

Ecco dunque un esempio:

Dove la nuovaurl indica chiaramente l’URL del sito a cui reindirizzare il vecchio indirizzo.

Ma la soluzione ottimale di un redirect si realizza attraverso il file htaccess.

Redirect dell’intero sito con htaccess

Il redirect dell’intero sito in un altro dominio si può realizzare semplicemente scrivendo:

Redirect 301 / https://www.nuovaurl.com/

Se invece si vuole reindirizzare una singola pagina allora possiamo scrivere:

Redirect 301 /old.php https://www.miodominio.com/new.php

In realtà questo è solo uno dei possibili modi per fare il redirect con htaccess..

Con WordPress?

Se non sei un esperto di codice, ti consiglio di utilizzare uno dei molti plugin che si occupano di questo task al tuo posto. Il primo della lista è senza dubbio il pratico e semplice redirection.

redirection-plugin-wordpress-dashboard

15 – SEO E CMS

WordPress SEO

WordPress è uno dei più noti e diffusi CMS open source in circolazione.

Un ottimo plugin SEO per WordPress si chiama WordPress SEO by Yoast, e consente di gestire molti aspetti importanti (metatag, sitemap, robots.txt, etc.).

Yoast NON fa Seo ma ci aiuta in alcune semplici procedure e ci indica se le procedure che stiamo eseguendo possono essere indicativaemente buone per Google. Yoast controlla ad esempio la ricorrenza delle parole chiave nella pagina, ci permette di scrivere la snippet in modo chiaro, controlla il numero delle parole, il nome dei file (e gli alt delle immagini), ecc..

YoastSeo