L'audit tecnico SEO 2017: la guida essenziale di un marketer

Pubblicato: 2017-03-08
Categorie
Tendenze digitali
Coinvolgimento del pubblico

In qualità di marketer digitale, è probabile che ti venga assegnato il compito di fornire consigli tecnici per il sito Web di un cliente, molto probabilmente all'inizio della campagna. La pietra angolare di questo processo sarà l'audit tecnico SEO. L'identificazione e l'elaborazione di approfondimenti per i numerosi elementi tecnici informeranno i passaggi successivi in ​​termini di ciò che consentirà alle pagine preziose di un sito Web di essere più visibili nei risultati di ricerca e accessibili agli utenti. Di seguito scompatteremo gli aspetti tecnici fondamentali che sono parte integrante del 2017, le sfumature di ciascun elemento e la loro influenza sulla funzionalità di un sito web.

Metadati

Con riferimento ai tag del titolo e alle meta descrizioni, questi frammenti di codice HTML sono due attributi che servono a informare gli utenti e i motori di ricerca dell'oggetto della pagina. Se ottimizzate correttamente, le informazioni fornite dovrebbero riferirsi a una query di ricerca degli utenti, che dovrebbe successivamente migliorare le percentuali di clic. Per stabilire una corretta ottimizzazione, ci sono solo alcune linee guida per ogni elemento che dovrebbero essere presi in considerazione durante l'audit di un sito web:

Tag del titolo

• Lead con parole chiave pertinenti nella parte anteriore del tag del titolo • Per sfruttare la consapevolezza del marchio, incorporare il nome del marchio alla fine, mantenendo un layout uniforme a livello del sito • Un tag del titolo non deve superare i 50-60 caratteri (o 512 pixel). I motori di ricerca possono tagliare caratteri aggiuntivi se la lunghezza viene superata • Nel complesso, dovrebbero essere unici e accattivanti per migliorare la visibilità e l'esperienza dell'utente

Meta descrizioni

• 1-2 parole chiave focus dovrebbero essere incluse e coerenti con quelle utilizzate in Title Tag, Header Tags e nella maggior parte dei casi l'URL • Il testo dovrebbe essere allineato con l'oggetto della pagina • La lunghezza ottimale è 150-160 caratteri • Le Meta Description dovrebbero essere unico • Una meta descrizione dovrebbe essere scritta come un pezzo convincente di testo pubblicitario che ispiri curiosità e richiami il desiderio degli utenti di fare clic

Scansione e indicizzazione

I robot dei motori di ricerca scansionano le pagine Web e quindi archiviano copie di queste pagine nei loro indici. La scansione di una pagina è una delle forze trainanti che determinano quali pagine vengono restituite dopo una ricerca su Google. Se un bot di ricerca non può eseguire la scansione di una pagina, sicuramente non sarà in grado di mostrare quella pagina a un utente che potrebbe trovare le informazioni rilevanti per la sua query. Per evitare tali problemi, diamo un'occhiata a 3 componenti che dovresti cercare che aiuteranno a facilitare la scansione e l'indicizzazione di una pagina web:

Mappa del sito XML:

Questo documento fornisce un menu facilmente digeribile delle pagine basate sul valore, a tua discrezione, di cui hai scelto di informare i motori di ricerca, il che semplificherà il processo di scansione e indicizzazione. Inoltre, è un modo rapido per dire a Google quando sono stati pubblicati nuovi contenuti su un sito Web e quali contenuti sono originali che aiuteranno a migliorare la classifica, nel tempo.

Mappa del sito HTML:

A differenza della Sitemap XML, le Sitemap HTML sono scritte per il consumo umano, non per i motori di ricerca. Pertanto, se un utente non riesce a trovare un contenuto particolare, questa mappa del sito aiuterà a migliorare l'esperienza utente.

Robots.txt:

Questo file risiede nella directory principale del tuo sito e dice ai bot dei motori di ricerca a quali pagine accedere e indicizzare e quali dovrebbero evitare. La funzionalità di questo file è fondamentale non solo per l'aspetto SEO, ma anche per la privacy delle aree di un sito. Dopo l'ispezione di un file robots.txt, dovresti assicurarti che le direttive siano allineate con cosa e come i visitatori dovrebbero accedere al sito. Ad esempio, una direttiva "non consentire" può essere utilizzata per contenuti a livello di pagina, categoria o sito, nonché per file di risorse e immagini, se necessario. Inoltre, il file robots.txt dovrebbe sempre indirizzare i robot di ricerca alla mappa del sito XML.

Struttura dell'URL

La struttura di un URL aiuterà a descrivere una pagina ai visitatori e ai motori di ricerca, proprio come il tag del titolo di una pagina. A seconda di dove si trova una pagina all'interno di un sito, i percorsi e la tassonomia dell'URL devono essere allineati con la navigazione del sito e l'oggetto della pagina. Alcune linee guida aggiuntive a cui attenersi sono le seguenti: • Gli URL devono essere mantenuti il ​​più concisi possibile, evitando l'uso eccessivo delle cartelle • Le parole chiave che rappresentano al meglio una pagina sono comunque utili • Le parole negli URL devono essere separate da trattini • I caratteri di punteggiatura non necessari devono essere rimosso • L'uso di determinate preposizioni o parole "stop" dovrebbe essere evitato (of; o; e; a; ecc.) • I parametri dinamici possono essere esclusi, se opportuno Se alcune aree di un sito Web sono travisate nella formattazione dell'URL, è importante che vengono forniti consigli poiché l'esperienza dell'utente può essere compromessa e i robot di ricerca possono essere confusi durante la fase di scansione e indicizzazione.

Protocollo sicuro

Da quando Google ha lanciato la campagna HTTPS ovunque nel 2014, la promozione di questa spinta si è solo perpetuata. Nel 2016, i rappresentanti di Google hanno affermato che la sicurezza dei siti Web dovrebbe essere sicuramente nel radar dei webmaster nel 2017. Ciò significa semplicemente cambiare il tuo sito Web da HTTP a HTTPS. HTTP (Hypertext Transfer Protocol) è la struttura per il trasferimento e la ricezione di dati tramite Internet. È un protocollo a livello di applicazione che fornisce informazioni a un utente indipendentemente dal canale necessario per farlo. Attraverso HTTPS (Secure Hypertext Transfer Protocol), lo scambio di autorizzazioni e transazioni sono protetti attraverso un livello aggiuntivo noto come SSL (Secure Sockets Layer) per il trasferimento di dati sensibili. Dal momento che Google sta cercando di imporre un'esperienza web più sicura per i suoi utenti, ha annunciato che HTTPS è davvero un segnale di ranking, anche se piccolo. Tuttavia, i robot di ricerca di Google hanno iniziato a dare la priorità alle pagine sicure rispetto alle pagine non sicure. La crittografia di un sito Web ne dimostrerà l'integrità e l'autenticità. Quando si compila un audit tecnico, assicurarsi che questo elemento venga affrontato e che siano incluse le raccomandazioni per il passaggio successivo per ottenere un certificato di sicurezza.

Canonizzazione e reindirizzamenti

Quando si esegue un audit tecnico, la scansione del sito Web sarà uno dei primi passi fondamentali per aiutarti ad andare avanti e fare valutazioni preziose. Uno strumento popolare tra i SEO è lo strumento Screaming Frog, che fornirà un'analisi completa del tipo di file, dei metadati, del codice di stato, dell'URL canonico, ecc. per ogni pagina scansionata di un sito. Allora, veniamo al punto.

Canonizzazione

Se un motore di ricerca è in grado di eseguire la scansione di più pagine che ospitano virtualmente lo stesso contenuto, sarà difficile quando si tenta di determinare quale versione della pagina deve essere selezionata per essere visualizzata nei risultati di ricerca in base a una query e, pertanto, potrebbe non scegli uno di loro. A peggiorare le cose, se diverse fonti si collegano a queste versioni di più pagine, l'autorità della versione della pagina principale sarà diluita, la fiducia e la credibilità di quella pagina saranno ridotte. Assicurati che se un sito Web contiene più varianti di pagina, tutte puntino a un URL comune, assegnato tramite il tag Canonical. Di seguito sono elencati esempi di versioni di pagine duplicate: 1. Pagine con parametri di filtro 2. Pagine impaginate 3. Pagine sicure, https 4. Pagine http non sicure 5. Pagine www 6. Pagine non www

Catene di reindirizzamento

Una catena di reindirizzamento è definita come una serie di reindirizzamenti che puntano continuamente da un URL all'altro, facendo sì che gli utenti e i motori di ricerca attendano l'esecuzione di questi passaggi non necessari prima di raggiungere l'URL previsto. L'implicazione qui è che circa il 10% dell'autorità della pagina viene perso per ogni reindirizzamento. Una funzionalità disponibile in Screaming Frog semplifica l'identificazione di eventuali catene di reindirizzamento da un semplice rapporto. A questo punto, filtra quelli che richiedono l'eliminazione della catena di reindirizzamento, in modo che una volta aggiornato dal tuo team di sviluppo, il sito guadagnerà un miglioramento dell'esperienza utente, dell'indicizzazione e del tempo di caricamento della pagina.

Ottimizzazione della velocità del sito

Al di là del primo sguardo, ci sono diversi fattori che contribuiscono all'efficacia della velocità e delle prestazioni di un sito web. Nell'era digitale, il modo in cui i nostri dispositivi ci servono è fondamentale per la nostra produttività al lavoro, a scuola ea casa, abbiamo bisogno che rispondano il più velocemente possibile. Poiché il tempo di caricamento della pagina determina il comportamento dell'utente, Google desidera anche che le pagine dei nostri siti Web si carichino velocemente e ha affermato che la velocità del sito garantisce un piccolo vantaggio in classifica. Uno strumento molto utile che fornirà approfondimenti sulle prestazioni del sito Web è GTmetrix. Dopo una rapida analisi del tuo sito web sarai in grado di discernere la velocità (o la lentezza) di caricamento del tuo sito web, dare priorità ad aree problematiche come ridurre le dimensioni dei file immagine, sfruttare la memorizzazione nella cache del browser, posticipare l'analisi dei file JavaScript, ecc. Valutazioni e le raccomandazioni possono essere facilmente formulate poiché il rapporto fornisce anche uno sguardo dettagliato alle risorse specifiche che richiedono attenzione.

Dati strutturati Rich Snippet/Schema

I dati strutturati sono un tipo di markup HTML implementato per contenuti pertinenti su un sito Web, che, se letti dai motori di ricerca, li aiuta a interpretare rapidamente le informazioni. Il risultato, sebbene non garantito, è la popolazione di rich snippet nei risultati di ricerca, che migliora l'esperienza degli utenti, portando a percentuali di clic maggiori. Alcuni dei tipi più comuni di Schema sono i seguenti: • Organizzazione • Società • Impresa locale • Organizzazione governativa • Organizzazione sportiva • Organizzazione educativa Una risorsa completa che fornisce le aree di un sito Web che possono essere incluse per il markup può essere trovata qui. Per determinare se una pagina web ha implementato o meno dati strutturati Schema o se è stata configurata correttamente, lo strumento di test dei dati strutturati di Google è una risorsa completa. Ora che sei dotato del nocciolo delle componenti tecniche più fondamentali, puoi immergerti nella fase di auditing! Ricorda che l'audit tecnico SEO è prezioso solo quanto la ricerca dedicata a loro. Nessun componente può essere trascurato, indipendentemente da quanto laborioso possa essere questo risultato. Una volta implementati i consigli, nel tempo dovresti iniziare a vedere l'impatto positivo delle modifiche di cui sopra e il risultato che hanno sull'esperienza utente di un sito Web e sulle prestazioni dei motori di ricerca.

Questo blocco è rotto o mancante. Potrebbero mancare dei contenuti o potrebbe essere necessario abilitare il modulo originale.