Da qualche settimana Google sta sperimentando sulle SERP statunitensi, in sostituzione del bottone “Load more”, un infinite scroll simile a quello di TikTok e Instagram che assimilerà tutti i risultati in un’unica lista corrispondente a circa 40 link. Siti con ranking inferiori potrebbero quindi cominciare a vedere la luce in fondo al tunnel, liberandosi finalmente del marchio infame della famigerata seconda pagina dei risultati di ricerca. Questa però non è l’unica novità di questo mese riguardante la ricerca organica: vi sveliamo le altre nel nostro nuovo, attesissimo Digest SEO!
Cosa intende davvero Google per “qualità”?
Qualità dei contenuti e velocità delle pagine web sono ormai da diversi anni gli imperativi categorici di ogni SEO. È tuttavia possibile che in merito a queste due tematiche persistano ancora alcuni fraintendimenti: John Mueller ha cercato di recente di dissolverli offrendo maggiori delucidazioni circa il concetto di qualità secondo Google e il significato dei punteggi di Lighthouse, chiarendo in particolare come questi debbano essere utilizzati all’interno di una qualsivoglia strategia SEO.
Riguardo il primo punto, la spiegazione di Mueller supera i limiti tradizionali del concetto di “qualità” tradizionalmente intesa, ossia legata al testo puro e semplice, al contenuto informativo presente su un sito, e includendo in questa definizione tutto ciò che contribuisce a rendere un sito cosa buona e giusta: dal layout al design, dal modo in cui le immagini vengono integrate nel testo alla velocità del sito stesso. Non è quindi sufficiente, sottolinea Mueller, offrire informazioni esaurienti e utili a chi naviga il sito, ma bisogna anche presentarle anche nella maniera più appropriata.
È particolarmente importante ricordare tutto ciò quando ci si trova alle prese con un calo di visibilità in seguito a un aggiornamento dell’algoritmo: poiché il drop è dovuto a una perdita di rilevanza rispetto alle keyword di riferimento, è improbabile che questa possa essere recuperata per il tramite di soli aggiustamenti tecnici, senza badare invece alla qualità intesa nel senso di cui prima: usabilità, chiarezza visiva, chiarezza di navigazione, trasparenza nel dichiarare le proprie fonti e così via.
Attenzione, dice poi Mueller, a confondere gli strumenti diagnostici con qualcosa di diverso: per quanto riguarda in particolar modo la velocità e la UX, ad esempio, Lighthouse è sì un mezzo utile per comprendere lo stato di salute di un sito, ma offre una misurazione “di laboratorio”, a priori, e non ne impatta il ranking, per il quale Google si basa invece su dati raccolti “sul campo”, ovvero dagli utilizzatori reali. Questo significa che un sito con un punteggio terribile potrà comunque posizionarsi bene in caso risulti rilevante rispetto alla ricerca di un utente.
Vecchi e nuovi metodi per velocizzare l’indicizzazione
Google ha preso parola anche in merito a un’altra questione spinosa, riemersa soprattutto nelle ultime settimane in seguito a quello che sembrava essere un problema tecnico del rapporto di Copertura di Search Console: alcuni utenti segnalavano infatti che, in corrispondenza di alcuni URL, compariva il messaggio “Scansionato – attualmente non indicizzato”, facendo dunque intuire un problema di indicizzazione; questo veniva però contraddetto dai risultati dello strumento di ispezione URL, che in corrispondenza degli stessi URL riportava la dicitura “Inviato e indicizzato”.
A tal proposito Google ha chiarito che il rapporto sulla Copertura viene aggiornato con tempistiche più lente rispetto all’URL Inspection Tool; è quest’ultimo che dunque rappresenta il punto di riferimento per comprendere se una pagina sia stata indicizzata o meno, mentre GSC si muove con una latenza di circa 3-4 giorni. In presenza di un errore, nel dubbio controlla comunque di non avere inavvertitamente inserito un noindex in quella pagina. In caso di errori persistenti, dovresti invece considerare un’analisi più approfondita del tuo codice: se, per effettuare il rendering della pagina, sono necessarie troppe chiamate JavaScript/CSS o se Nginx, Apache o PHP sono stati configurati in modo scorretto, questo potrebbe causare un timeout generando di conseguenza un errore nella console di Google.
Meanwhile, in Washington, Microsoft ha annunciato un nuovo protocollo open source che permetterà di indicizzare istantaneamente pagine e contenuti. IndexNow – questo il suo nome – invierà una notifica a tutti i motori di ricerca che lo adotteranno, riducendo drasticamente i tempi di indicizzazione rispetto al tradizionale metodo “pull”, che si basa su richieste effettuate direttamente dal motore di ricerca al server su cui è appoggiato il singolo sito.
Il limite giornaliero è fissato a 10.000 URL, mentre il progetto sarà aperto a tutti i SE orizzontali e verticali con una presenza significativa in almeno un mercato: pressoché certa la partecipazione di eBay, LinkedIn e Yandex, quest’ultima partner di progetto. Riducendo il dispendio di energia che sottostà al lavoro dei motori di ricerca, IndexNow dovrebbe avere anche un risvolto positivo per l’ambiente. Qui puoi trovare ulteriori dettagli sull’adesione al progetto.
Le novità per il monitoraggio dei risultati
A grande richiesta di chi occupa di Web Analytics arrivano invece nuovi dati per analizzare i dati del traffico web. La novità riguarda l’aggiunta delle statistiche relative al traffico proveniente da Discover e News alle API Search Analytics. Il parametro searchType, che offriva in precedenza la possibilità di filtrare le chiamate API in base a diverse tipologie di ricerca (news, video, image, web), prenderà adesso il nome di type e supporterà due nuovi parametri: discover (per Google Discover) e googleNews (per Google News). Naturalmente, se verrà richiesta una dimensione non supportata dal rapporto, le API restituiranno un messaggio di errore.
Altra novità riguarda l’introduzione dei nuovi operatori includingRegex ed excludingRegex per le dimensioni “query” e “pagina”. Puoi consultare la documentazione delle API Search Analytics per approfondire il tema.
Per quanto riguarda Google Search Console, la piattaforma supporta poi una nuova serie di dati riguardanti gli errori nei rich results. Il rapporto verrà attivato in automatico per i siti per i quali Google disporrà di dati sufficienti e sarà corredato di suggerimenti per il debugging degli errori rilevati, offrendo così un prezioso aiuto per il miglioramento del CTR. Ecco le principali etichette che sarà possibile visualizzare:
- Invalid attribute string length;
- Invalid attribute enum value;
- Invalid object;
- Type conversion failed;
- Out of numeric range.
Ecco invece i tipi di rich results per i quali potranno essere attivati i rapporti: Breadcrumb, Dataset, Event, FAQ, Fact check, Guided recipe, How-to, Image License, Job posting, Logo, Product, Q&A page, Recipe, Review snippet, Sitelinks searchbox, Special Announcement, Video.
Sempre in merito ai dati strutturati, e in particolare quelli di tipo HowTo, QAPage e SpecialAnnouncement, pubblicheremo a breve un aggiornamento che interesserà gli smanettoni là fuori: stay tuned!