Come menzionato nel capitolo 1, i motori di ricerca sono macchine costruite per rispondere alle nostre domande. Esistono per scoprire, comprendere e organizzare i contenuti di Internet al fine di offrire i risultati più pertinenti alle domande poste dai chi cerca.

Per apparire nei risultati di ricerca, i tuoi contenuti devono prima essere visibili ai motori di ricerca. È senza dubbio il pezzo più importante del puzzle SEO: se il tuo sito non può essere trovato, non c’è modo che tu possa mai comparire nelle SERP (pagina dei risultati dei motori di ricerca).

Come funzionano i motori di ricerca?

I motori di ricerca hanno tre funzioni principali:

  1. Scansione: eseguire ricerche su Internet alla ricerca di contenuti, controllando il codice / i contenuti per ciascun URL trovato.
  2. Indice: archivia e organizza i contenuti trovati durante il processo di scansione. Una volta che una pagina è nell’indice, è in esecuzione per essere visualizzata come risultato di query pertinenti.
  3. Classifica: fornire i contenuti che risponderanno meglio alla query di un ricercatore, il che significa che i risultati sono ordinati dalla più pertinente alla meno pertinente.

Cos’è il motore di ricerca per indicizzazione?

La scansione è il processo di scoperta in cui i motori di ricerca inviano un team di robot (noti come crawler o spider) per trovare contenuti nuovi e aggiornati. Il contenuto può variare – potrebbe essere una pagina Web, un’immagine, un video, un PDF, ecc. – ma indipendentemente dal formato, il contenuto viene scoperto dai collegamenti.

Crawlers and Search Engine for SEO

Googlebot inizia recuperando alcune pagine Web, quindi segue i collegamenti su tali pagine Web per trovare nuovi URL. Saltando lungo questo percorso di collegamenti, il crawler è in grado di trovare nuovi contenuti e aggiungerli al loro indice chiamato Caffeine – un enorme database di URL scoperti – da recuperare in seguito quando un ricercatore cerca informazioni che il contenuto di tale URL è un buona partita per.

Che cos’è un indice dei motori di ricerca?

I motori di ricerca elaborano e archiviano le informazioni che trovano in un indice, un enorme database di tutto il contenuto che hanno scoperto e che ritengono abbastanza buono da essere offerto agli utenti.

Classifica dei motori di ricerca

Quando qualcuno esegue una ricerca, i motori di ricerca analizzano il loro indice alla ricerca di contenuti altamente pertinenti e quindi ordinano tali contenuti in modo da risolvere la query del ricercatore. Questo ordinamento dei risultati della ricerca per pertinenza è noto come classifica. In generale, puoi presumere che più alto è un sito Web, più pertinente è il motore di ricerca che ritiene che il sito sia adatto alla query.

È possibile bloccare i crawler dei motori di ricerca da una parte o da tutto il tuo sito o indicare ai motori di ricerca di evitare di memorizzare determinate pagine nel loro indice. Sebbene ci possano essere motivi per farlo, se desideri che i tuoi contenuti vengano trovati dai ricercatori, devi prima assicurarti che siano accessibili ai crawler e che siano indicizzabili. Altrimenti, è come essere invisibile.

Entro la fine di questo capitolo, avrai il contesto di cui hai bisogno per lavorare con il motore di ricerca, piuttosto che contro di esso!

Nella SEO non tutti i motori di ricerca sono uguali

Molti principianti si chiedono l’importanza relativa di determinati motori di ricerca. Molte persone sanno che Google ha la più grande quota di mercato, ma quanto è importante ottimizzare per Bing, Yahoo e altri?

La verità è che nonostante l’esistenza di oltre 30 principali motori di ricerca web, la comunità SEO presta attenzione solo a Google. Perché? La risposta breve è che Google è dove la stragrande maggioranza delle persone cerca nel web.

Se includiamo Google Immagini, Google Maps e YouTube (una proprietà di Google), oltre il 90% delle ricerche Web viene eseguito su Google, quasi 20 volte la combinazione di Bing e Yahoo.

Scansione: i motori di ricerca possono trovare le tue pagine?

Come hai appena appreso, assicurarsi che il tuo sito venga sottoposto a scansione e indicizzato è un prerequisito per essere visualizzato nelle SERP. Se hai già un sito Web, potrebbe essere una buona idea iniziare vedendo quante delle tue pagine sono nell’indice. Ciò fornirà alcuni spunti di approfondimento sul fatto che Google stia eseguendo la scansione e trovando tutte le pagine che desideri e nessuna di quelle che non ti piacciono.

Un modo per controllare le pagine indicizzate è “site: yourdomain.com”, un operatore di ricerca avanzata. Vai su Google e digita “site: yourdomain.com” nella barra di ricerca. Ciò restituirà risultati che Google ha nel suo indice per il sito specificato:

risultati di ricerca

Il numero di risultati visualizzati da Google (vedi “Informazioni sui risultati XX” sopra) non è esatto, ma ti dà un’idea solida di quali pagine sono indicizzate sul tuo sito e di come vengono attualmente visualizzate nei risultati di ricerca.

Per risultati più accurati, monitorare e utilizzare il rapporto sulla copertura dell’indice in Google Search Console. Puoi registrarti per un account Google Search Console gratuito se non ne hai attualmente uno. Con questo strumento, puoi inviare sitemap per il tuo sito e monitorare quante pagine inviate sono state effettivamente aggiunte all’indice di Google, tra le altre cose.

Se non ti presenti in nessun punto dei risultati della ricerca, ci sono alcuni possibili motivi per cui:

  • Il tuo sito è nuovo di zecca e non è ancora stato sottoposto a scansione.
    Il tuo sito non è collegato a nessun sito Web esterno.
  • La navigazione del tuo sito rende difficile per un robot la scansione efficace.
  • Il tuo sito contiene alcuni codici di base chiamati direttive crawler che bloccano i motori di ricerca.
  • Il tuo sito è stato penalizzato da Google per tattiche di spam.

Spiega ai motori di ricerca come eseguire la scansione del tuo sito

Se hai utilizzato Google Search Console o l’operatore di ricerca avanzata “site: domain.com” e hai scoperto che alcune delle tue pagine importanti mancano dall’indice e / o che alcune delle tue pagine non importanti sono state erroneamente indicizzate, ci sono alcune ottimizzazioni che puoi implementare per indirizzare meglio Googlebot su come si desidera eseguire la scansione dei contenuti Web. Dire ai motori di ricerca come eseguire la scansione del tuo sito può darti un miglior controllo di ciò che finisce nell’indice.

Molte persone pensano di assicurarsi che Google possa trovare le loro pagine importanti, ma è facile dimenticare che ci sono probabilmente pagine che non vuoi che Googlebot trovi. Questi potrebbero includere elementi come vecchi URL con contenuto scarso, URL duplicati (come parametri di ordinamento e filtro per l’e-commerce), pagine codici promozionali speciali, pagine di gestione temporanea o di prova e così via.

Per allontanare Googlebot da determinate pagine e sezioni del tuo sito, utilizza robots.txt.

Robots.txt

I file robots.txt si trovano nella directory principale dei siti Web (es. Tuodominio.com/robots.txt) e suggeriscono quali parti dei motori di ricerca del tuo sito devono e non devono eseguire la scansione, nonché la velocità con cui eseguono la scansione del tuo sito , tramite specifiche direttive robots.txt.

In che modo Googlebot tratta i file robots.txt

Se Googlebot non riesce a trovare un file robots.txt per un sito, procede alla scansione del sito.
Se Googlebot trova un file robots.txt per un sito, di solito rispetterà i suggerimenti e procederà alla scansione del sito.
Se Googlebot rileva un errore durante il tentativo di accedere al file robots.txt di un sito e non è in grado di determinare se ne esiste uno o meno, non eseguirà la scansione del sito.

Ottimizza il budget per la scansione!

Il budget di scansione è il numero medio di URL che Googlebot eseguirà la scansione del tuo sito prima di uscire, quindi l’ottimizzazione del budget di scansione assicura che Googlebot non stia perdendo tempo a scorrere le pagine non importanti a rischio di ignorare le tue pagine importanti. Il budget di scansione è molto importante su siti molto grandi con decine di migliaia di URL, ma non è mai una cattiva idea impedire ai crawler di accedere ai contenuti che sicuramente non ti interessano. Assicurati solo di non bloccare l’accesso di un crawler alle pagine su cui hai aggiunto altre direttive, come tag canonici o noindex. Se Googlebot è bloccato da una pagina, non sarà in grado di vedere le istruzioni su quella pagina.

Non tutti i robot web seguono robots.txt. Le persone con cattive intenzioni (ad es. Raschiatori di indirizzi e-mail) costruiscono robot che non seguono questo protocollo. In effetti, alcuni cattivi attori usano i file robots.txt per trovare dove hai trovato i tuoi contenuti privati. Sebbene possa sembrare logico bloccare i crawler da pagine private come le pagine di accesso e amministrazione in modo che non vengano visualizzate nell’indice, posizionare la posizione di tali URL in un file robots.txt accessibile pubblicamente significa anche che le persone con intenzioni dannose può trovarli più facilmente. È meglio NoIndex queste pagine e chiuderle dietro un modulo di accesso piuttosto che inserirle nel file robots.txt.

Puoi leggere maggiori dettagli al riguardo nella sezione robots.txt del nostro Centro didattico.

Definizione dei parametri URL in GSC

Alcuni siti (più comuni con l’e-commerce) rendono disponibili gli stessi contenuti su più URL diversi aggiungendo determinati parametri agli URL. Se hai mai effettuato acquisti online, probabilmente hai ristretto la ricerca tramite i filtri. Ad esempio, puoi cercare “scarpe” su Amazon, quindi perfezionare la ricerca per dimensione, colore e stile. Ogni volta che perfezioni, l’URL cambia leggermente:

https://www.example.com/products/women/dresses/green.htmhttps://www.example.com/products/women?category=dresses&color=greenhttps://example.com/shopindex.php?product_id=32&highlight=green+dress&cat_id=1&sessionid=123$affid=43

Come fa Google a sapere quale versione dell’URL servire agli utenti? Google fa un ottimo lavoro nel capire da solo l’URL rappresentativo, ma puoi utilizzare la funzione Parametri URL in Google Search Console per dire a Google esattamente come vuoi che trattino le tue pagine. Se utilizzi questa funzione per dire a Googlebot di “eseguire la scansione di nessun URL con il parametro ____”, stai essenzialmente chiedendo di nascondere questo contenuto a Googlebot, il che potrebbe comportare la rimozione di tali pagine dai risultati di ricerca. Questo è quello che vuoi se quei parametri creano pagine duplicate, ma non è l’ideale se vuoi che queste pagine vengano indicizzate.

I crawler possono trovare tutti i tuoi contenuti importanti?

Ora che conosci alcune tattiche per garantire che i crawler dei motori di ricerca stiano lontani dai tuoi contenuti non importanti, scopriamo le ottimizzazioni che possono aiutare Googlebot a trovare le tue pagine importanti.

A volte un motore di ricerca sarà in grado di trovare parti del tuo sito eseguendo la scansione, ma altre pagine o sezioni potrebbero essere oscurate per un motivo o per l’altro. È importante assicurarsi che i motori di ricerca siano in grado di scoprire tutto il contenuto che si desidera indicizzare e non solo la tua home page.

Chiediti questo: il bot può eseguire la scansione del tuo sito Web e non solo?

I tuoi contenuti sono nascosti dietro i moduli di accesso?

Se si richiede agli utenti di accedere, compilare moduli o rispondere a sondaggi prima di accedere a determinati contenuti, i motori di ricerca non vedranno quelle pagine protette. Un crawler sicuramente non accederà.

Ti affidi ai moduli di ricerca?

I robot non possono utilizzare i moduli di ricerca. Alcune persone credono che se posizionano una casella di ricerca sul loro sito, i motori di ricerca saranno in grado di trovare tutto ciò che i loro visitatori cercano.

Il testo è nascosto all’interno di contenuti non testuali?

I moduli multimediali non di testo (immagini, video, GIF, ecc.) Non devono essere utilizzati per visualizzare il testo che si desidera indicizzare. Mentre i motori di ricerca stanno migliorando nel riconoscere le immagini, non vi è alcuna garanzia che saranno in grado di leggerle e comprenderle ancora. È sempre meglio aggiungere testo all’interno del markup <HTML> della tua pagina web.

I motori di ricerca possono seguire la navigazione del tuo sito?

Proprio come un crawler deve scoprire il tuo sito tramite link da altri siti, ha bisogno di un percorso di link sul tuo sito per guidarlo da una pagina all’altra. Se hai una pagina che desideri venga trovata dai motori di ricerca ma non è collegata a nessuna altra pagina, è altrettanto invisibile. Molti siti commettono l’errore critico di strutturare la loro navigazione in modi inaccessibili ai motori di ricerca, ostacolando la loro capacità di essere elencati nei risultati di ricerca.

Errori di navigazione comuni che possono impedire ai crawler di vedere tutto il tuo sito:

  • Avere una navigazione mobile che mostra risultati diversi rispetto alla navigazione desktop
  • Qualsiasi tipo di navigazione in cui le voci di menu non si trovano nell’HTML, come le navigazioni abilitate per JavaScript. Google è molto migliorato nella scansione e nella comprensione di Javascript, ma non è ancora un processo perfetto. Il modo più sicuro per garantire che qualcosa venga trovato, compreso e indicizzato da Google è inserendolo nell’HTML.
  • La personalizzazione, o la visualizzazione di una navigazione unica verso un tipo specifico di visitatore rispetto ad altri, potrebbe sembrare mascherare un crawler del motore di ricerca
  • Dimenticando di collegarti a una pagina principale del tuo sito web attraverso la tua navigazione – ricorda, i collegamenti sono i percorsi che i crawler seguono verso nuove pagine!

Ecco perché è essenziale che il tuo sito web abbia una navigazione chiara e utili strutture di cartelle URL.

Hai un’architettura delle informazioni pulita?

L’architettura dell’informazione è la pratica di organizzare ed etichettare i contenuti di un sito Web per migliorare l’efficienza e la reperibilità per gli utenti. La migliore architettura dell’informazione è intuitiva, il che significa che gli utenti non dovrebbero pensare molto per fluire attraverso il tuo sito Web o per trovare qualcosa.

Stai utilizzando sitemap?

Una sitemap è proprio come sembra: un elenco di URL sul tuo sito che i crawler possono utilizzare per scoprire e indicizzare i tuoi contenuti. Uno dei modi più semplici per garantire a Google di trovare le pagine con la massima priorità è quello di creare un file che soddisfi gli standard di Google e inviarlo tramite Google Search Console. Sebbene l’invio di una Sitemap non sostituisca la necessità di una buona navigazione del sito, può sicuramente aiutare i crawler a seguire un percorso verso tutte le tue pagine importanti.

Assicurati di aver incluso solo gli URL che desideri vengano indicizzati dai motori di ricerca e di fornire indicazioni coerenti ai crawler. Ad esempio, non includere un URL nella tua Sitemap se hai bloccato quell’URL tramite robots.txt o includi URL nella Sitemap che sono duplicati anziché la versione canonica preferita (forniremo maggiori informazioni sulla canonicalizzazione nel Capitolo 5!).

Ulteriori informazioni sulle sitemap XML

Se il tuo sito non ha altri siti collegati ad esso, potresti comunque essere in grado di indicizzarlo inviando la tua Sitemap XML in Google Search Console. Non c’è garanzia che includeranno un URL inviato nel loro indice, ma vale la pena provare!

I crawler ricevono errori quando provano ad accedere ai tuoi URL?

Nel processo di scansione degli URL sul tuo sito, un crawler potrebbe riscontrare errori. Puoi andare al rapporto “Errori di scansione” di Google Search Console per rilevare gli URL su cui ciò potrebbe accadere: questo rapporto mostrerà gli errori del tuo server e quelli non trovati. Anche i file di registro del server possono mostrarti questo, oltre a un tesoro di altre informazioni come la frequenza di scansione, ma poiché l’accesso e l’analisi dei file di registro del server sono una tattica più avanzata, non ne discuteremo a lungo nella Guida per principianti, anche se puoi saperne di più qui.

Prima di poter fare qualcosa di significativo con il rapporto sugli errori di scansione, è importante comprendere gli errori del server e quelli “non trovati”.

Codici 4xx: quando i crawler dei motori di ricerca non possono accedere ai tuoi contenuti a causa di un errore del client

Gli errori 4xx sono errori client, il che significa che l’URL richiesto contiene una sintassi errata o non può essere soddisfatto. Uno degli errori 4xx più comuni è l’errore “404 – non trovato”. Questi potrebbero verificarsi a causa di un refuso URL, di una pagina eliminata o di un reindirizzamento interrotto, solo per citare alcuni esempi. Quando i motori di ricerca raggiungono un 404, non possono accedere all’URL. Quando gli utenti colpiscono un 404, possono sentirsi frustrati e andarsene.

Codici 5xx: quando i crawler dei motori di ricerca non possono accedere ai tuoi contenuti a causa di un errore del server

Gli errori 5xx sono errori del server, il che significa che il server in cui si trova la pagina Web non è riuscito a soddisfare la richiesta del ricercatore o del motore di ricerca di accedere alla pagina. Nel rapporto “Errore di scansione” di Google Search Console, è presente una scheda dedicata a questi errori. Questi in genere si verificano perché la richiesta per l’URL è scaduta, quindi Googlebot ha abbandonato la richiesta. Consulta la documentazione di Google per ulteriori informazioni sulla risoluzione dei problemi di connettività del server.

Per fortuna, c’è un modo per dire sia ai ricercatori che ai motori di ricerca che la tua pagina è stata spostata: il reindirizzamento 301 (permanente).

Old New page

Supponi di spostare una pagina da example.com/young-dogs/ a example.com/puppies/. I motori di ricerca e gli utenti hanno bisogno di un bridge per passare dal vecchio URL al nuovo. Quel bridge è un reindirizzamento 301.

Quando si implementa un 301:Quando non si implementa un 301:
Link EquityTrasferisce l’equità del collegamento dalla vecchia posizione della pagina al nuovo URL.Senza un 301, l’autorizzazione dall’URL precedente non viene trasferita alla nuova versione dell’URL.
indicizzazioneAiuta Google a trovare e indicizzare la nuova versione della pagina.La presenza di 404 errori sul tuo sito da solo non danneggia le prestazioni di ricerca, ma lasciare che le pagine 404 di posizionamento / traffico possano farli cadere fuori dall’indice, con classifiche e traffico che vanno con loro
Esperienza utenteAssicura agli utenti di trovare la pagina che stanno cercando.Consentire ai tuoi visitatori di fare clic su link non funzionanti li porterà a pagine di errore anziché alla pagina prevista, il che può essere frustrante.

Lo stesso codice di stato 301 indica che la pagina è stata spostata in modo permanente in una nuova posizione, quindi evita di reindirizzare gli URL a pagine non pertinenti – URL in cui il contenuto del vecchio URL non è effettivamente presente. Se una pagina è classificata per una query e la 301 viene inserita in un URL con contenuto diverso, potrebbe scendere in posizione di classifica perché il contenuto che l’ha resa rilevante per quella particolare query non è più presente. I 301 sono potenti: sposta gli URL in modo responsabile!

Hai anche la possibilità di reindirizzare 302 una pagina, ma questo dovrebbe essere riservato per spostamenti temporanei e nei casi in cui il passaggio dell’equità del collegamento non è un grosso problema. I 302 sono un po ‘come una deviazione su strada. Stai temporaneamente assorbendo il traffico attraverso un determinato percorso, ma non sarà così per sempre.

Fai attenzione alle catene di reindirizzamento!

Per Googlebot può essere difficile raggiungere la tua pagina se deve passare attraverso più reindirizzamenti. Google chiama queste “catene di reindirizzamento” e consigliano di limitarle il più possibile. Se reindirizzi example.com/1 su example.com/2, in seguito decidi di reindirizzarlo a example.com/3, è meglio eliminare l’intermediario e semplicemente reindirizzare example.com/1 a example.com/3.

Dopo esserti assicurato che il tuo sito sia ottimizzato per la crawlability, il prossimo ordine di attività è assicurarti che possa essere indicizzato.

Indicizzazione: in che modo i motori di ricerca interpretano e memorizzano le tue pagine?

Dopo esserti assicurato che il tuo sito sia stato sottoposto a scansione, il prossimo ordine di attività è assicurarti che possa essere indicizzato. Esatto, solo perché il tuo sito può essere scoperto e sottoposto a scansione da un motore di ricerca non significa necessariamente che verrà archiviato nel loro indice. Nella sezione precedente sulla scansione, abbiamo discusso di come i motori di ricerca rilevano le tue pagine web. L’indice è dove sono memorizzate le tue pagine scoperte. Dopo che un crawler trova una pagina, il motore di ricerca la rende come un browser. Nel fare ciò, il motore di ricerca analizza i contenuti di quella pagina. Tutte queste informazioni sono memorizzate nel suo indice.

Scopri come funziona l’indicizzazione e come puoi assicurarti che il tuo sito entri in questo importantissimo database.

Posso vedere come un crawler di Googlebot vede le mie pagine?
Sì, la versione cache della tua pagina rifletterà un’istantanea dell’ultima volta in cui Googlebot l’ha sottoposta a scansione.

Google esegue la scansione e memorizza nella cache le pagine Web a frequenze diverse. I siti più affermati e noti che pubblicano frequentemente come https://www.nytimes.com verranno sottoposti a scansione più frequentemente rispetto al sito Web molto meno famoso per il trambusto laterale di Roger il Mozbot, http://www.rogerlovescupcakes.com ( se solo fosse reale …)

È possibile visualizzare l’aspetto della versione cache di una pagina facendo clic sulla freccia a discesa accanto all’URL nella SERP e selezionando “Memorizzato nella cache”:

Puoi anche visualizzare la versione di solo testo del tuo sito per determinare se il tuo contenuto importante viene sottoposto a scansione e memorizzato nella cache in modo efficace.

Le pagine vengono mai rimosse dall’indice?

Sì, le pagine possono essere rimosse dall’indice! Alcuni dei motivi principali per cui un URL potrebbe essere rimosso includono:

  • L’URL sta restituendo un errore “non trovato” (4XX) o un errore del server (5XX) – Potrebbe essere accidentale (la pagina è stata spostata e non è stato impostato un reindirizzamento 301) o intenzionale (la pagina è stata eliminata e 404 modificata per rimuoverlo dall’indice)
  • All’URL è stato aggiunto un metatag noindex: questo tag può essere aggiunto dai proprietari del sito per indicare al motore di ricerca di omettere la pagina dal suo indice.
  • L’URL è stato sanzionato manualmente per aver violato le Linee guida per i webmaster del motore di ricerca e, di conseguenza, è stato rimosso dall’indice.
  • L’URL è stato bloccato dalla scansione con l’aggiunta di una password richiesta prima che i visitatori possano accedere alla pagina.

Se ritieni che una pagina del tuo sito Web precedentemente inclusa nell’indice di Google non venga più visualizzata, puoi utilizzare lo strumento Controllo URL per conoscere lo stato della pagina o utilizzare Visualizza come Google che ha una funzione “Richiedi indicizzazione” per invia singoli URL all’indice. (Bonus: lo strumento “fetch” di GSC ha anche un’opzione di “rendering” che ti consente di vedere se ci sono problemi con il modo in cui Google sta interpretando la tua pagina).

Dì ai motori di ricerca come indicizzare il tuo sito

Meta direttive dei robot
Le meta direttive (o “meta tag”) sono istruzioni che puoi dare ai motori di ricerca su come vuoi che la tua pagina web venga trattata.

Puoi indicare ai crawler dei motori di ricerca cose come “non indicizzare questa pagina nei risultati di ricerca” o “non trasferire alcuna equità di collegamento a nessun link su pagina”. Queste istruzioni vengono eseguite tramite i meta tag robot nella <head> delle pagine HTML (più comunemente utilizzate) o tramite il tag X-robot nell’intestazione HTTP.

Meta tag robot

Il meta tag robot può essere utilizzato all’interno della <head> dell’HTML della tua pagina web. Può escludere tutti o motori di ricerca specifici. Le seguenti sono le meta direttive più comuni, insieme alle situazioni in cui potresti applicarle.

index / noindex indica ai motori se la pagina deve essere sottoposta a scansione e mantenuta nell’indice di un motore di ricerca per il recupero. Se scegli di utilizzare “noindex”, stai comunicando ai crawler che desideri che la pagina venga esclusa dai risultati di ricerca. Per impostazione predefinita, i motori di ricerca presumono di poter indicizzare tutte le pagine, quindi non è necessario utilizzare il valore “indice”.

  • Quando potresti utilizzarlo: potresti scegliere di contrassegnare una pagina come “noindex” se stai cercando di tagliare le pagine sottili dall’indice di Google del tuo sito (ad es. Pagine del profilo generate dall’utente) ma desideri comunque che siano accessibili ai visitatori.

follow / nofollow indica ai motori di ricerca se i collegamenti sulla pagina devono essere seguiti o non seguiti. “Segui” si traduce in bot che seguono i collegamenti sulla tua pagina e passano l’equità dei collegamenti a tali URL. Oppure, se si sceglie di utilizzare “nofollow”, i motori di ricerca non seguiranno né trasferiranno alcun link equity ai link nella pagina. Per impostazione predefinita, si presume che tutte le pagine abbiano l’attributo “Segui”.

  • Quando è possibile utilizzare: nofollow viene spesso utilizzato insieme a noindex quando si tenta di impedire l’indicizzazione di una pagina e di impedire al crawler di seguire i collegamenti sulla pagina.

noarchive viene utilizzato per impedire ai motori di ricerca di salvare una copia cache della pagina. Per impostazione predefinita, i motori manterranno copie visibili di tutte le pagine che hanno indicizzato, accessibili agli utenti tramite il collegamento memorizzato nella cache nei risultati della ricerca.

  • Quando è possibile utilizzare: se si esegue un sito di e-commerce e i prezzi cambiano regolarmente, è possibile prendere in considerazione il tag noarchive per impedire agli utenti di visualizzare prezzi obsoleti.

Ecco un esempio di un noindex di meta robot, tag nofollow:

...

X-Robots-Tag

Il tag x-robots viene utilizzato nell’intestazione HTTP del tuo URL, fornendo maggiore flessibilità e funzionalità rispetto ai meta tag se desideri bloccare i motori di ricerca su larga scala perché puoi utilizzare espressioni regolari, bloccare file non HTML e applicare tag noindex a livello di sito .

Ad esempio, potresti facilmente escludere intere cartelle o tipi di file (come moz.com/no-bake/old-recipes-to-noindex):

Header set X-Robots-Tag “noindex, nofollow”

O tipi di file specifici (come i PDF):

Header set X-Robots-Tag “noindex, nofollow”

Per ulteriori informazioni sui meta-tag dei robot, esplora le specifiche dei meta-tag dei robot di Google.

Suggerimento per WordPress:

In Dashboard> Impostazioni> Lettura, assicurati che la casella “Visibilità dei motori di ricerca” non sia selezionata. Questo impedisce ai motori di ricerca di accedere al tuo sito tramite il tuo file robots.txt!

Comprendere i diversi modi in cui puoi influenzare la scansione e l’indicizzazione ti aiuterà a evitare le insidie comuni che possono impedire di trovare le tue pagine importanti.

Classifica: in che modo i motori di ricerca classificano gli URL?

In che modo i motori di ricerca assicurano che quando qualcuno digita una query nella barra di ricerca, ottengano in cambio risultati pertinenti? Tale processo è noto come classificazione o ordinamento dei risultati di ricerca in base alla più pertinente alla meno rilevante per una determinata query.

Per determinare la pertinenza, i motori di ricerca utilizzano algoritmi, un processo o una formula con cui le informazioni memorizzate vengono recuperate e ordinate in modo significativo. Questi algoritmi hanno subito molti cambiamenti nel corso degli anni al fine di migliorare la qualità dei risultati di ricerca. Google, ad esempio, apporta quotidianamente modifiche all’algoritmo: alcuni di questi aggiornamenti sono modifiche di qualità minori, mentre altri sono aggiornamenti di algoritmi core / generici implementati per affrontare un problema specifico, come Penguin per affrontare lo spam dei link. Consulta la nostra cronologia delle modifiche dell’algoritmo di Google per un elenco di aggiornamenti Google confermati e non confermati risalenti all’anno 2000.

Perché l’algoritmo cambia così spesso? Google sta solo cercando di tenerci in guardia? Sebbene Google non sveli sempre i dettagli sul perché fanno ciò che fanno, sappiamo che l’obiettivo di Google quando si effettuano le regolazioni dell’algoritmo è migliorare la qualità generale della ricerca. Ecco perché, in risposta alle domande sull’aggiornamento dell’algoritmo, Google risponderà con qualcosa del tipo: “Stiamo apportando aggiornamenti di qualità in ogni momento”. Ciò indica che, se il tuo sito ha subito un aggiustamento dell’algoritmo, confrontalo con le Linee guida sulla qualità di Google o le Linee guida per la valutazione della qualità della ricerca, entrambi stanno dicendo molto in termini di ciò che i motori di ricerca vogliono.

Cosa vogliono i motori di ricerca?

I motori di ricerca hanno sempre desiderato la stessa cosa: fornire risposte utili alle domande dei ricercatori nei formati più utili. Se questo è vero, allora perché sembra che il SEO sia diverso ora rispetto agli anni passati?

Pensaci in termini di qualcuno che impara una nuova lingua.

All’inizio, la loro comprensione della lingua è molto rudimentale: “Vedi Spot Run”. Nel tempo, la loro comprensione inizia ad approfondirsi e imparano la semantica – il significato dietro il linguaggio e la relazione tra parole e frasi. Alla fine, con abbastanza pratica, lo studente conosce abbastanza bene la lingua per comprendere anche la sfumatura ed è in grado di fornire risposte anche a domande vaghe o incomplete.

Quando i motori di ricerca stavano appena iniziando a imparare la nostra lingua, era molto più facile giocare al sistema usando trucchi e tattiche che andavano contro le linee guida sulla qualità. Prendi il riempimento di parole chiave, ad esempio. Se desideri classificare una determinata parola chiave come “battute divertenti”, potresti aggiungere le parole “battute divertenti” un sacco di volte sulla tua pagina e renderlo audace, nella speranza di aumentare il tuo ranking per quel termine:

Copy to Clipboard

Questa tattica creava terribili esperienze utente e invece di ridere di battute divertenti, le persone venivano bombardate da testi fastidiosi e difficili da leggere. Potrebbe aver funzionato in passato, ma non è mai quello che volevano i motori di ricerca.

I collegamenti di ruolo svolgono in SEO

Quando parliamo di link, potremmo significare due cose. I backlink o “link in entrata” sono link da altri siti Web che puntano al tuo sito Web, mentre i link interni sono link sul tuo sito che puntano ad altre tue pagine (sullo stesso sito).

Site A Site B

I link hanno storicamente svolto un ruolo importante nel SEO. Molto presto, i motori di ricerca avevano bisogno di aiuto per capire quali URL fossero più affidabili di altri per aiutarli a determinare come classificare i risultati di ricerca. Il calcolo del numero di collegamenti che punta a un determinato sito li ha aiutati a farlo.

I backlink funzionano in modo molto simile ai riferimenti WoM (passaparola) nella vita reale. Prendiamo un ipotetico coffee shop, Jenny’s Coffee, come esempio:

  • Referenze da altri = buon segno di autorità
    • Esempio: molte persone diverse ti hanno detto che il caffè di Jenny è il migliore in città
  • Rinvii da te stesso = di parte, quindi non un buon segno di autorità
    • Esempio: Jenny afferma che Jenny’s Coffee è il migliore in città
  • I riferimenti da fonti irrilevanti o di bassa qualità = non sono un buon segno di autorità e potrebbero persino farti segnalare per lo spam
    • Esempio: Jenny ha pagato per fare in modo che le persone che non hanno mai visitato la sua caffetteria diano agli altri quanto è bello.
  • Nessun riferimento = autorità non chiara
    • Esempio: Jenny’s Coffee potrebbe essere buono, ma non sei stato in grado di trovare qualcuno che abbia un’opinione, quindi non puoi esserne sicuro.

Questo è il motivo per cui PageRank è stato creato. PageRank (parte dell’algoritmo principale di Google) è un algoritmo di analisi dei collegamenti che prende il nome da uno dei fondatori di Google, Larry Page. PageRank stima l’importanza di una pagina web misurando la qualità e la quantità di collegamenti che la puntano. Il presupposto è che più una pagina web è pertinente, importante e affidabile, più link avrà guadagnato.

Più backlink naturali hai da siti Web di alta autorità (attendibili), migliore è la tua probabilità di posizionarti più in alto nei risultati di ricerca.

Il ruolo svolto dai contenuti nel SEO

Non avrebbe senso aggiungere link se non indirizzassero gli utenti verso qualcosa. Quel qualcosa è contento! Il contenuto è più di semplici parole; è qualcosa che deve essere consumato dai ricercatori: ci sono contenuti video, contenuti di immagini e, naturalmente, testo. Se i motori di ricerca sono macchine di risposta, il contenuto è il mezzo con cui i motori forniscono tali risposte.

Ogni volta che qualcuno esegue una ricerca, ci sono migliaia di possibili risultati, quindi in che modo i motori di ricerca decidono quali pagine troveranno preziose le ricerche? Una parte importante della determinazione del posizionamento della pagina per una determinata query è quanto il contenuto della tua pagina corrisponda alle intenzioni della query. In altre parole, questa pagina corrisponde alle parole cercate e aiuta a svolgere il compito che il ricercatore stava cercando di svolgere?

A causa di questa attenzione alla soddisfazione degli utenti e alla realizzazione delle attività, non esistono parametri di riferimento rigorosi su quanto devono essere lunghi i tuoi contenuti, quante volte devono contenere una parola chiave o cosa inserisci nei tag di intestazione. Tutti questi possono svolgere un ruolo nel modo in cui una pagina si comporta nella ricerca, ma l’attenzione dovrebbe essere rivolta agli utenti che leggeranno il contenuto.

Oggi, con centinaia o addirittura migliaia di segnali di classifica, i primi tre sono rimasti abbastanza coerenti: collegamenti al tuo sito Web (che fungono da segnali di credibilità di terze parti), contenuto in pagina (contenuto di qualità che soddisfa l’intento di un ricercatore) e RankBrain.

Che cos’è RankBrain?

RankBrain è il componente di apprendimento automatico dell’algoritmo principale di Google. L’apprendimento automatico è un programma per computer che continua a migliorare le sue previsioni nel tempo attraverso nuove osservazioni e dati di addestramento. In altre parole, apprende sempre e, poiché apprende sempre, i risultati della ricerca dovrebbero migliorare costantemente.

Ad esempio, se RankBrain rileva un URL di classificazione inferiore che fornisce agli utenti un risultato migliore rispetto agli URL di classificazione superiore, puoi scommettere che RankBrain regolerà tali risultati, spostando il risultato più pertinente più in alto e degradando le pagine meno rilevanti come sottoprodotto.

Come la maggior parte delle cose con il motore di ricerca, non sappiamo esattamente cosa comprende RankBrain, ma a quanto pare, nemmeno la gente di Google.

Cosa significa questo per i SEO?

Poiché Google continuerà a sfruttare RankBrain per promuovere i contenuti più pertinenti e utili, dobbiamo concentrarci sul raggiungimento degli intenti degli utenti più che mai. Fornisci le migliori informazioni ed esperienze possibili agli utenti che potrebbero atterrare sulla tua pagina e hai fatto un grande primo passo per ottenere buoni risultati in un mondo RankBrain.

Metriche di coinvolgimento: correlazione, causalità o entrambe?

Con le classifiche di Google, le metriche di coinvolgimento sono molto probabilmente una correlazione parziale e una causalità parziale.

Quando diciamo le metriche di coinvolgimento, intendiamo i dati che rappresentano il modo in cui i ricercatori interagiscono con il tuo sito dai risultati di ricerca. Questo include cose come:

  • Clic (visite dalla ricerca)
  • Tempo sulla pagina (tempo trascorso dal visitatore su una pagina prima di lasciarla)
  • Frequenza di rimbalzo (la percentuale di tutte le sessioni del sito Web in cui gli utenti hanno visualizzato solo una pagina)
  • Pogo-sticking (facendo clic su un risultato organico e quindi tornando rapidamente alla SERP per scegliere un altro risultato)

Numerosi test, incluso il sondaggio condotto da Moz sul fattore di classificazione, hanno indicato che le metriche di coinvolgimento sono correlate a una classificazione più elevata, ma la causa è stata oggetto di accesi dibattiti. Le buone metriche di coinvolgimento sono solo indicative di siti altamente classificati? Oppure i siti sono classificati in alto perché possiedono buone metriche di coinvolgimento?

Quello che ha detto Google

Sebbene non abbiano mai usato il termine “segnale di posizionamento diretto”, Google ha chiarito che usano assolutamente i dati sui clic per modificare la SERP per determinate query.

Poiché Google deve mantenere e migliorare la qualità della ricerca, sembra inevitabile che le metriche di coinvolgimento siano più che una correlazione, ma sembrerebbe che Google non riesca a chiamare le metriche di coinvolgimento un “segnale di classificazione” perché tali metriche vengono utilizzate per migliorare la qualità della ricerca e il grado di singoli URL è solo un sottoprodotto di questo.

Quali test hanno confermato

Vari test hanno confermato che Google regolerà l’ordine SERP in risposta al coinvolgimento del ricercatore:

  • Il test 2014 di Rand Fishkin ha portato a un risultato n. 7 che si è spostato al primo posto dopo aver indotto circa 200 persone a fare clic sull’URL dalla SERP. È interessante notare che il miglioramento della classifica sembrava essere isolato dalla posizione delle persone che hanno visitato il link. La posizione di rango è aumentata negli Stati Uniti, dove si trovavano molti partecipanti, mentre è rimasta più bassa sulla pagina di Google Canada, Google Australia, ecc.
  • Il confronto tra le prime pagine di Larry Kim e il loro tempo di permanenza medio pre e post rango post sembra indicare che il componente di apprendimento automatico dell’algoritmo di Google declassa la posizione di rango delle pagine in cui le persone non trascorrono così tanto tempo.
  • I test di Darren Shaw hanno dimostrato anche l’impatto del comportamento degli utenti sulla ricerca locale e sui risultati del pacchetto mappe.

Poiché le metriche di coinvolgimento degli utenti sono chiaramente utilizzate per regolare la SERP in base alla qualità e classificare i cambiamenti di posizione come sottoprodotto, è sicuro affermare che i SEO dovrebbero ottimizzare per il coinvolgimento. Il coinvolgimento non modifica la qualità oggettiva della tua pagina web, ma piuttosto il tuo valore per gli utenti rispetto ad altri risultati per quella query. Ecco perché, senza alcuna modifica alla tua pagina o ai suoi backlink, potrebbe ridursi nelle classifiche se i comportamenti dei ricercatori indicano che apprezzano meglio le altre pagine.

In termini di classificazione delle pagine Web, le metriche di coinvolgimento agiscono come un controllo dei fatti. Fattori oggettivi come link e contenuti prima classificano la pagina, quindi le metriche di coinvolgimento aiutano Google a adattarsi se non lo hanno fatto bene.

L’evoluzione dei risultati della ricerca

Ai tempi in cui i motori di ricerca mancavano della raffinatezza che hanno oggi, il termine “10 collegamenti blu” è stato coniato per descrivere la struttura piatta della SERP. Ogni volta che veniva eseguita una ricerca, Google restituiva una pagina con 10 risultati organici, ciascuno nello stesso formato.

10 esempi di link in serp

In questo panorama di ricerca, tenere il primo posto era il santo graal del SEO. Ma poi è successo qualcosa. Google ha iniziato ad aggiungere risultati in nuovi formati nelle pagine dei risultati di ricerca, chiamate funzionalità SERP. Alcune di queste funzionalità SERP includono:

  • Pubblicità a pagamento
  • Snippet in primo piano
  • Le persone chiedono anche le caselle
  • Pacchetto locale (mappa)
    Pannello di conoscenza
  • Sitelink

E Google ne aggiunge sempre di nuovi. Hanno anche sperimentato “SERP a zero risultati”, un fenomeno in cui un solo risultato del Knowledge Graph è stato visualizzato sulla SERP senza risultati al di sotto di esso tranne un’opzione per “visualizzare più risultati”.

L’aggiunta di queste funzionalità ha causato un po ‘di panico iniziale per due motivi principali. Per uno, molte di queste caratteristiche hanno portato a risultati più spinti verso il basso sulla SERP. Un altro sottoprodotto è che un minor numero di utenti fa clic sui risultati organici poiché più risposte alla SERP stessa rispondono.

Quindi perché Google dovrebbe farlo? Tutto risale all’esperienza di ricerca. Il comportamento dell’utente indica che alcune query sono soddisfatte meglio da diversi formati di contenuto. Notare come i diversi tipi di funzionalità SERP corrispondono ai diversi tipi di intenti di query.

Intento della queryPossibile funzione SERP attivata
InformativaSnippet in primo piano
Informativo con una rispostaKnowledge Graph / instant answer
LocalePacchetto mappe
transazionaleShopping

Parleremo di più delle intenzioni nel Capitolo 3, ma per ora, è importante sapere che le risposte possono essere fornite agli utenti in una vasta gamma di formati e come la struttura dei tuoi contenuti può influire sul formato in cui vengono visualizzati nella ricerca.

Ricerca localizzata

Un motore di ricerca come Google ha un proprio indice proprietario delle schede di attività commerciali locali, da cui crea risultati di ricerca locali.

Se stai eseguendo un lavoro SEO locale per un’azienda che ha una posizione fisica, i clienti possono visitare (ad es. Dentista) o per un’azienda che viaggia per visitare i propri clienti (ad es. Idraulico), assicurati di richiedere, verificare e ottimizzare un Elenco gratuito di Google My Business.

Quando si tratta di risultati di ricerca localizzati, Google utilizza tre fattori principali per determinare il posizionamento:

  • Rilevanza
  • Distanza
  • Prominenza

Rilevanza

Rilevanza è quanto un’azienda locale corrisponde a ciò che il ricercatore sta cercando. Per garantire che l’azienda stia facendo tutto il possibile per essere pertinente per gli utenti, assicurati che le informazioni sull’attività siano compilate in modo accurato e completo.

Distanza

Google utilizza la tua posizione geografica per offrirti un servizio migliore sui risultati locali. I risultati della ricerca locale sono estremamente sensibili alla prossimità, che si riferisce alla posizione del ricercatore e / o alla posizione specificata nella query (se il ricercatore ne ha incluso uno).

I risultati di ricerca organici sono sensibili alla posizione di un ricercatore, sebbene raramente siano pronunciati come nei risultati del pacchetto locale.

Prominenza

Con un ruolo preminente, Google sta cercando di premiare le aziende famose nel mondo reale. Oltre alla rilevanza offline di un’azienda, Google cerca anche alcuni fattori online per determinare il posizionamento locale, come:

Recensioni

Il numero di recensioni di Google ricevute da un’azienda locale e il sentimento di tali recensioni hanno un impatto notevole sulla loro capacità di classificarsi nei risultati locali.

Citazioni

Una “citazione commerciale” o “scheda di attività commerciale” è un riferimento basato sul Web a un “NAP” (nome, indirizzo, numero di telefono) di un’azienda locale su una piattaforma localizzata (Yelp, Acxiom, YP, Infogroup, Localeze, ecc.) .

Le classifiche locali sono influenzate dal numero e dalla coerenza delle citazioni commerciali locali. Google estrae i dati da un’ampia varietà di fonti nel creare continuamente il proprio indice di attività locale. Quando Google trova più riferimenti coerenti al nome, alla posizione e al numero di telefono di un’azienda, rafforza la “fiducia” di Google nella validità di tali dati. Ciò porta quindi a Google essere in grado di mostrare l’attività con un livello di sicurezza più elevato. Google utilizza anche informazioni provenienti da altre fonti sul Web, come collegamenti e articoli.

Classifica organica

Le migliori pratiche SEO si applicano anche al SEO locale, poiché Google determina anche la posizione di un sito Web nei risultati di ricerca organici nel determinare il posizionamento locale.

Nel prossimo capitolo imparerai le migliori pratiche su pagina che aiuteranno Google e gli utenti a comprendere meglio i tuoi contenuti.

[Bonus!] Coinvolgimento locale

Sebbene non sia elencato da Google come un fattore di classificazione locale, il ruolo del coinvolgimento aumenterà col passare del tempo. Google continua ad arricchire i risultati locali incorporando dati del mondo reale come i periodi più visitati e la durata media delle visite …

Orari popolari

… e offre persino agli utenti la possibilità di porre domande commerciali!

Domande e risposte SEO

Indubbiamente ora più che mai, i risultati locali sono influenzati dai dati del mondo reale. Questa interattività è il modo in cui i ricercatori interagiscono e rispondono alle attività commerciali locali, piuttosto che a informazioni puramente statiche (e di gioco) come collegamenti e citazioni.

Poiché Google desidera offrire agli utenti le attività locali migliori e più pertinenti, è perfettamente logico che utilizzino le metriche di coinvolgimento in tempo reale per determinare la qualità e la pertinenza.

Non devi conoscere i dettagli dell’algoritmo di Google (che rimane un mistero!), Ma ormai dovresti avere un’ottima conoscenza di base di come il motore di ricerca trova, interpreta, archivia e classifica i contenuti. Grazie a questa conoscenza, impariamo a scegliere le parole chiave che i tuoi contenuti saranno indirizzate nel Capitolo 3 (Ricerca di parole chiave)!

Se ti piacciono i nostri articoli iscriviti e seguici

  • Introduzione alla visualizzazione

Introduzione alla visualizzazione

Agosto 12th, 2020|0 Commenti

Introduzione alle visualizzazioni Screaming Frog SEO Spider ha due tipi di visualizzazioni di siti Web interattive: visualizzazioni di scansione e visualizzazioni di albero di directory. I due tipi di visualizzazioni sono fondamentalmente diversi e

  • visual sitemap

Strategia SEO con una sitemap visuale

Agosto 12th, 2020|0 Commenti

Usa una mappa del sito visuale per implementare la tua strategia SEO Quando si tratta di ottimizzazione dei motori di ricerca (SEO), le grandi vittorie richiedono seri sforzi per essere realizzate. L'utilizzo di una

SEO TECNICO

Agosto 6th, 2020|0 Commenti

Le conoscenze tecniche di base ti aiuteranno a ottimizzare il tuo sito per i motori di ricerca e a stabilire credibilità presso gli sviluppatori. Ora che hai creato contenuti di valore sulla base della

  • Seo 101, le basi della seo

SEO 101

Luglio 13th, 2020|0 Commenti

SEO 101Che cos'è e perché è importante?Benvenuto! Siamo entusiasti che tu sia qui!Se hai già una solida conoscenza del SEO e del perché è importante, puoi saltare subito al Capitolo 2 (anche se consigliamo comunque

  • seo per principianti e significato seo

SEO per principianti

Luglio 13th, 2020|0 Commenti

Introduzione Benvenuto nel tuo primo percorso di apprendimento SEO! Non importa se non hai nessuna conoscenza su questo argomento, ti insegnero tutte le basi necessarie per approcciare questo mondo di opportunità. Otterrai il massimo