Voglio iniziare con un argomento che non mi fa impazzire così ce lo togliamo subito di torno. Fra l’altro contiene molti termini e concetti che ci torneranno comodi durante i prossimi capitoli: la Search Console di Google.
Google Search Console
Si tratta di un tool gratuito molto utile per analizzare traffico e indicizzazione del proprio sito e che può avvertire l’amministratore in caso di problemi. Si riceveranno email su aggiornamenti ed eventuali errori. Sappiate però che normalmente si viene avvertiti quando viene rilevato un nuovo errore ma se un errore o un avviso peggiorano e si aggravano, questo non accade. Il consiglio è quindi di controllare periodicamente il proprio sito sulla Search Console.
Per poter monitorare un sito occorre prima verificarlo tramite una delle due procedure a disposizione, Un rapido riassunto di come funzionano:
- Domain = prende i sottodomini o HTTP/HTTPS o con o senza www e si verifica con DNS (metodo più serio). In pratica devi aggiungere un testo alla configurazione DNS. Occhio: può non funzionare immediatamente.
- Url Prefix = non prende sottodomini o HTTP/HTTPS o con o senza www ma si verifica in più modi (metodo più facile). Generalmente si carica un file nell’FTP o si aggiunge un meta tag nella home. Altrimenti Google Analytics, Google Tag Manager o DNS. Può essere consigliato se si deve dare accesso ad alcune informazioni a un consulente esterno che deve vedere solo determinate cose.
Google Search Console – Sitemap
Io inizierei subito inviando la sitemap del sito dalla voce Sitemap | Aggiungi una nuova Sitemap. In genere l’URL della sitemap ha una forma tipo: dominio/sitemap_index.xml oppure dominio/sitemap.xml. Importante: si vedono qui solo le sitemap che sono state inviate dall’utente, quelle che Google ha scoperto da solo non sono presenti.
Inviare la sitemap non fa mai male, anzi direi che è sempre utile farlo ma diventa addirittura fondamentale se:
- Ci sono pagine orfane e che quindi non possono essere raggiunte tramite link.
- Il sito è molto grande (quindi di complessa gestione) o nuovo (che necessita quindi di un aiuto iniziale nella fase di crawling e di conseguenza poi in quella di indicizzazione).
- Il sito subisce frequenti modifiche e cambiamenti.
Ricordatevi che se una sitemap non è più utile né attuale va eliminata dal sito prima di eliminarla in Search Console. I relativi URL non verranno comunque rimossi dall’indicizzazione.
La funzionalità Inspect (Controlla) è invece accessibile dalla barra di ricerca in alto (o URL Inspection nel menu o ancora dalla lente d’ingrandimento nella tabella): ci puoi inserire URL del dominio da controllare ed eventualmente richiedere di indicizzare. Consente anche di vedere la pagina come è stata presa dal crawler da “View crawled page” o “Visualizza pagina sottoposta a scansione” (se ne parlerà nei prossimi capitoli). Da qui è anche possibile richiedere una nuova indicizzazione, magari dopo modifiche importanti effettuate alla pagina.
Dal menu Performance (Rendimento) si accede a moltissime informazioni, per i siti più piccoli è praticamente tutto in questa voce mentre per quelli più grandi si divide in Search Results (Risultati di ricerca personalizzabile con i filtri in alto per Web, Image, Video, News, intervalli di date fino a ultimi 16 mesi e altro) e Discover (notizie e risultati personalizzati secondo gli interessi dell’utente). I dati sono davvero utili:
- Clic totali = numero di clic fatti dagli utenti per aprire pagine del sito.
- Impressions = link a pagine del sito mostrati agli utenti in SERP.
- CTR (Click Through Rate) = percentuale di impression che hanno portato a effettivi clic.
- Average position = posizione media in SERP.
In aggiunta, nella tab Pagine si possono usare i minipopup per fare copia URL e incollarli nel nuovo filtro in alto così si vedono solo i dati di quella pagina (molto utile la tab Queries). Si può anche aggiungere un altro filtro con una keyword e vedere come rende quella pagina.
Invece di filtrare si possono comparare i dati, per esempio confronta con i tre mesi precedenti. Nel filtro scegli “differenza” per le impression con valore “inferiore a” 0 per vedere le query o le pagine che hanno perso impression. Quelle sono spesso pagine vecchie e che devono essere aggiornate.
Facciamo un paio di esempi, giusto per vedere cosa ci si potrebbe presentare davanti:
- Se hai position e impression ottime ma CTR basso potrebbero esserci video, “People also ask” e rich snippet che tengono in basso il tuo risultato organico in SERP. Tieni anche in considerazione se e quante sponsorizzate ci sono.
- Puoi cercare pagine con position subito sopra il 10 (che ovviamente corrisponde all’inizio della classica seconda pagina della SERP) e buone impression/clic per provare, riscrivendone testo, title, meta etc. a portarle in prima pagina. Ne parleremo meglio fra un po’.
Per vedere come migliorare una certa pagina del nostro sito per una certa keyword è buona norma cercare tale keyword su Google e analizzare le pagine che risultano posizionate bene.
Google Search Console – Indicizzazione e Rimozioni
Passando all’area Indicizzazione | Pagine indovinate un po’? Troviamo le informazioni relative all’indicizzazione delle pagine. Incredibile, eh?
- Indicizzate = tutto ok. Devono essere più o meno le pagine/articoli del tuo sito. Se sono molte di più o molte di meno, direi che qualcosa non va bene.
- Non indicizzate = gli errori vengono generalmente elencati in ordine discendente di gravità. Magari sono state volontariamente escluse dalla indicizzazione con un noindex, magari hai un 404, un redirect o un Soft 404. Certo che se è una pagina per te importante (e magari è “crawled” ma “not indexed”) cliccaci e richiedi nuovamente l’indicizzazione: a volte provvede in modo molto rapido, poi vai su Google e digiti site:iltuodominio per controllare se è stata aggiunta in modo corretto.
L’area Rimozioni serve per monitorare le richieste di rimozione dall’indice di Google di una risorsa del nostro dominio. Si può trattare di rimozioni temporanee (solo per rimuovere temporaneamente un contenuto, parliamo di circa sei mesi).
Per rimuovere completamente un contenuto occorre però cancellare la risorsa dal sito oppure renderla accessibile solo mediante password o ancora metterla in noindex altrimenti dopo sei mesi magari verrà scansionata di nuovo.
Tieni d’occhio anche il menu Esperienza | Segnali web essenziali: riporta una serie di eventuali problemi riscontrati nell’esperienza mobile o desktop. Fai principalmente attenzione alle segnalazioni su:
- CLS (Cumulative Layout Shift) = misura la stabilità visiva, in pratica come cambia la pagina mentre si carica.
- LCP (Largest Contentful Paint) = misura le prestazioni di caricamento del contenuto importante della pagina, si può definire come la velocità di caricamento percepita dall’utente.
- FID (First Input Delay) = misura la reattività, in pratica è il ritardo fra la prima azione dell’utente e la reazione del browser.
Occhio anche alla voce Esperienza | Usabilità sui dispositivi mobili = riporta eventuali errori su mobile come ad esempio: “testo troppo piccolo da leggere”, “elementi selezionabili troppo vicini tra loro” o “contenuti più grandi rispetto allo schermo”.
In genere sotto Miglioramenti sono presenti anche le voci “Breadcrumb” (il modo per vedere la posizione gerarchica di una certa pagina, categorie etc.) e “Casella di ricerca sitelink” (che è la casella di ricerca personalizzata per il tuo sito all’interno della SERP ma non è detto che sia davvero visibile). In aggiunta potrebbero essere presenti altre voci come “Snippet di recensioni” e “Video”.
Google Search Console – Sicurezza e Azioni Manuali
Nell’area Sicurezza vengono elencati gli eventuali problemi di sicurezza che si raggruppano in tre categorie principali:
- Hacked content: contenuto messo nel tuo sito senza il tuo permesso, sfruttando vulnerabilità presenti (spesso dovute a problemi del CMS o plugin/temi obsoleti e/o non aggiornati).
- Malware and unwanted software: generalmente si tratta di software malevolo destinato a portare danni all’utente.
- Social engineering: contenuto che convince l’utente a fare qualcosa di pericoloso o a rivelare informazioni sensibili (codici, password di login, numeri di carta credito etc.)
Importanti anche le cosiddette Azioni Manuali ovvero ciò che succede quando un essere umano che lavora per Google intraprende un’azione nei confronti del nostro sito. Il concetto è che le furbate si pagano e se hai fatto qualcosa di losco per “guadagnarti” la prima pagina SERP senza averne diritto, Google può farti il mazzo… Facciamo qualche esempio:
- Black Hat SEO non consentite (possono portare alla rimozione intera da Google) come il cloaking (cioè mostrare una cosa all’utente e un’altra al bot di Google, spesso nel codice della pagina c’è qualcosa che identifica proprio il Googlebot, segno che potrebbe volergli mostrare roba creata appositamente).
- Testo nascosto o scritto con lo stesso colore dello sfondo.
- Keyword stuffing etc.
In genere ricevi una mail che ti avvisa in caso di errori ma come ho già detto non si sa mai: facci un giro ogni tanto. E ricordati, prima di richiedere la review, di risolvere bene tutti gli errori rilevati e di spiegare come l’hai fatto nella finestra Request Review. Non limitarti a cancellare la roba vecchia ma sostituiscila con contenuto nuovo.
Nell’area Link troverai i collegamenti principali suddivisi in Link esterni (pagine, siti e testo di anchor che puntano a pagine nostre) e Link interni (si tratta dei collegamenti interni alla nostra proprietà, può essere un’idea controllare le pagine con pochi link e aumentarli in modo intelligente, magari aggiornando il contenuto della pagina).
Altri strumenti
La maggior parte delle considerazioni fatte per la Search Console di Google si può applicare anche ai Bing Webmaster Tools.
Vediamo adesso brevemente qualche altro strumento che ci può fare comodo quando lavoriamo sull’analisi del sito, ne vedremo poi altri nel corso dei vari capitoli.
- Microsoft Clarity = per analizzare diversi aspetti del proprio sito ma in particolare interessante per le mappe termiche che rilevano dove l’utente interagisce con la pagina. È a posto per la GDPR e si può installare su un CMS con un plugin oppure manualmente.
- Lighthouse = una estensione per Chrome che analizza fra le altre cose la performance del sito, l’accessibilità, best practices, SEO.
- Webpagetest = ottimo per comparare il proprio sito e quello di un competitor o più versioni del proprio sito. Dispone di diversi tipi di analisi.
Non entrerò nel dettaglio/marasma di Google Analytics per una serie di motivi ma è importante sapere che può essere usato (fra le altre tante cose) per analizzare il Bounce Rate di una pagina. Cos’è il Bounce Rate? Se porti gente sul sito ma non metti contenuto di qualità o se l’utente si ritrova in una pagina che non corrisponde assolutamente a ciò che sperava, cosa succede? Succede che la gente rimbalza e va via senza visitare nessun’altra pagina del tuo meraviglioso blog. Google potrebbe vedere il rimbalzo e pensare che tu non sia rilevante per quella keyword; di conseguenza potrebbe farti scendere nei risultati. In realtà, però, si tratta di un’informazione che non significa molto quando viene letta da sola senza considerare la durata della visita e altri dati.
Pensiamoci un attimo con un esempio pratico: se io cerco l’orario di apertura del ristorante “Da Bubbi”, fra i risultati di Google clicco sul link che mi porta alla pagina “Contatti” del sito www.dabubbi.it che mi mostra subito orario e indirizzo. Cosa faccio subito dopo? Probabilmente esco da quel sito, non perché fosse irrilevante o fuorviante, tutt’altro! Perché ho trovato subito l’informazione che cercavo. Però così aumenta la frequenza di rimbalzo.
C’è stato un periodo, infatti, qualche anno fa in cui il bounce rate delle pagine posizionate meglio nelle SERP era aumentato notevolmente; si può ipotizzare che i risultati diventino in parte sempre più precisi e che quindi l’utente trovi immediatamente ciò che cerca senza dover poi navigare in altre pagine dello stesso sito.
Comunque, questo dato non va confuso con l’Exit Rate che invece misura la percentuale di visite che terminano con quella determinata pagina del sito: per esempio un visitatore potrebbe entrare nel sito www.dabubbi.it iniziando dalla homepage e poi uscendo dalla pagina “Contatti”.
Possiamo, ad esempio, azzardare che quando si tratta di un e-commerce l’utente dovrebbe visitare più pagine: entra nel sito, trova l’articolo, magari sceglie la taglia, lo mette nel carrello, arriva alla procedura di pagamento etc.
In generale, se noto una frequenza di rimbalzo troppo alta sarà bene che controlli qualche aspetto del mio sito che potrebbe aver fatto scappare il visitatore: ci sono pop-up o pubblicità fastidiose? La navigazione è mortalmente lenta? I contenuti sono di scarso interesse o disposti talmente male da renderli difficilmente fruibili?
Concludiamo dicendo un paio di semplici cose su Google Tag Manager. È un sistema che serve per gestire vari tipi di tracciamento sul proprio sito. Una volta installato può tracciare clic, conversioni, form etc per mandarle a Google Analytics, Google Ads o altre. In pratica è una centrale che smista gli eventi rilevati, una sorta di man-in-the-middle fra il sito e altro. È gratuito, dispone di template che semplificano il lavoro e di permessi differenziati per i vari utenti. Dategli un’occhiata.
Tratto da “Prontuario semiserio di Digital Marketing” di Lamberto Salucco