Mentre le idee di Google sull’evoluzione del motore di ricerca sembrano piuttosto chiare, un po’ meno certa è attualmente la loro messa in pratica. Fra imprevisti di varia sorta, anche questo mese gli amici di Mountain View hanno però messo in tavola una serie di questioni molto interessanti che riassumiamo nel nostro Digest di giugno. In conclusione all’articolo trovi anche un’anticipazione sul chiacchieratissimo Google KELM, il nuovo modello di Intelligenza Artificiale che muterà il nostro modo di trovare informazioni sul motore di ricerca.
Page Experience Update: a che punto siamo con Core Web Vitals e Mobile-First Indexing
Nel periodo dell’anno in cui si decidono le sorti di migliaia di studenti, sembra del tutto appropriato che anche Google vesta i panni del professore e tiri le somme sul prossimo Page Experience Update: da Mountain View Philip Walton ha infatti comunicato che i Core Web Vitals non saranno uno strumento di posizionamento binario, ovvero non sarà necessario avere ottimi punteggi rispetto a tutti e tre gli indicatori (LCP, FID e CLS) per ottenere una spinta al proprio ranking.
Non solo: una volta guadagnato il semaforo verde, ogni eventuale miglioramento del punteggio numerico non avrà alcun peso ai fini di ulteriori aumenti di posizione in SERP. Insomma, si tratta di un bonus una tantum. Certo, aggiunge Mueller, gli utenti gioiranno di quel millisecondo di vita in più guadagnato grazie alla fotonica velocità del tuo sito, ma da parte nostra, fondamentalmente, ti dovrai accontentare di una pacca sulla spalla.
Altra tessera del puzzle che riguarda i Core Web Vitals (CWV) raccolta questo mese è quella per cui, con la migrazione di un URL, il suo punteggio CWV verrà trasferito alla pagina di destinazione. Non un’ovvietà, se consideriamo che i CWV funzionano sulla base di dati raccolti direttamente attraverso Chrome e non tramite crawling di Googlebot. Naturalmente, un conto è fare un redirect per un semplice cambio di URL e tutt’altra storia reindirizzare verso una pagina completamente diversa per quanto riguarda contenuti e performance: una volta “digerito” il redirect e comprese le discrepanze fra le due pagine, infatti, Google procederà a una nuova valutazione dei CWV.
Nel frattempo, il lavoro di migrazione globale verso il Mobile-First Indexing sembra andare a rilento. Se infatti, come riportavamo nel nostro Digest di aprile, secondo Google un sito mobile friendly non è necessariamente pronto per il Mobile-First Indexing, la buona notizia è che nemmeno Google sembra esserlo. Il processo di transizione, iniziato più di quattro anni e mezzo fa, avrebbe dovuto concludersi a settembre 2020, scadenza poi slittata a marzo 2021. La nuova, più probabile deadline sembrerebbe adesso essere, genericamente, il 2022.
Nel frattempo, i SEO si scatenano sul tema AMP, che con l’arrivo dei CWV sembrerebbero esser destinate a perdere il loro ruolo di principali motori del ranking su Google News. In questo sondaggio lanciato da Aleyda Solis su Twitter, la maggior parte degli esperti del settore ha dichiarato che rimuoverà tutte le pagine AMP; circa il 35% dei partecipanti al sondaggio sostiene invece che continuerà ad aggiungere nuove AMP, mentre il 23% dice che manterrà quelle esistenti ma non ne aggiungerà di nuove. Il nostro consiglio? Aspettare, ché a bruciare tutto con il lanciafiamme, per quanto catartico, si fa sempre in tempo. E con Google non si sa mai.
Spam e penalizzazioni: come prevenire invece di curare
Google ha annunciato l’introduzione di nuovi strumenti di intelligenza artificiale in grado di bloccare il 99% dello spam, con un focus speciale sui contenuti di carattere medico. Gli spider di Google, novelli Mastro Lindo dell’Internet, saranno in grado di bloccare lo spam ancora prima che venga indicizzato o comunque posizionato. Essendo il nostro Mastro Lindo intelligente, userà i dati raccolti – cioè le pagine scansionate – per costruire modelli predittivi ancora più efficienti per l’individuazione e la rimozione di spam. Per quanto riguarda l’1% rimanente, le azioni di revisione manuale da parte del team Google dovrebbero completare il quadro e rendere Internet un mondo completamente pulito.
Se si escludono errori di pura natura tecnica (un blocco su robots.txt, un noindex spalmato per sbaglio site-wide, etc.), la presenza di spam, così come tutto ciò che riguarda, in generale, la qualità dei contenuti, è uno dei motivi principali per cui un sito intero può essere rimosso dall’indice di Google. Attenzione quindi in particolare a tutti i contenuti generati direttamente dagli utenti del tuo sito (i cosiddetti UGC): ad esempio i commenti sui forum, i post sulle piattaforme social, i file caricati dagli utenti, spesso sfruttati dagli spammatori per inserire link che rimandano a siti terzi di svariata natura – generalmente una natura poco gradita a Google, che procede tosto a penalizzare il sito o declassarne alcune pagine in SERP.
Sono però molte le vie che puoi percorrere per proteggerti dagli spammatori: oltre al caro buon vecchio Captcha, puoi imporre agli utenti di verificare il proprio account tramite email, rendere obbligatoria anche l’approvazione manuale di post e commenti da parte di un moderatore e usare il noindex per le aree del tuo sito meno controllabili e affidabili (ad es. i profili degli utenti).
H1, immagini e contenuti above-the-fold: cosa funziona e cosa no
Un insolitamente ciarliero John Mueller ha dato risposta questo mese a una serie di interrogativi che attanagliano e dividono da sempre la comunità SEO in fazioni che Apple vs. Microsoft spostati proprio. Primo fra questi il dibattuto tema degli H1: bisogna davvero usarne solo uno in pagina? Rischiando la lapidazione per via telematica, Mueller dice di no: all’algoritmo, per come si evoluto negli ultimi 10 anni, non interessano quanti e quali heading usiate in pagina, basta che li usiate; ma non tanto per questioni di posizionamento, ché delle parole chiave nei titoli niente gli cale, quanto per un principio di usabilità. Ovvero: se dividi il contenuto in sezioni chiare, per l’utente è più semplice interagire con quella pagina.
Il modello di analisi del linguaggio naturale su cui si fonda l’IA di Google è infatti in grado di capire quale sia l’argomento della pagina e se sia pertinente rispetto alla query anche in assenza di keyword all’interno dei tag heading e soprattutto senza dover necessariamente leggere da sinistra a destra e dall’alto verso il basso quello che hai scritto.
Stesso discorso è applicabile al contenuto above-the-fold: non importa condensare in questo spazio tutte le parole chiave del tuo cuore, basta che un qualche tipo di contenuto sia presente nella porzione di schermo immediatamente visibile all’utente al primo caricamento di pagina, sempre per ragioni di User Experience. Gloria dunque ai CRO che ce lo ripetono da cent’anni: niente slideshow di immagini giganti in alto alle pagine, please.
E allora le immagini le metto nel corpo della pagina, dirai tu. La risposta di Mueller è circa la seguente: fai pure, ma sappi che se il tuo scopo è posizionarti bene su Search è tutta fatica sprecata. Rimane ovviamente il contributo dato dai contenuti multimediali al posizionamento su Google Images, nonché alla esperienza globale dell’utente sul sito, ma in termini di puro ranking sulla ricerca tradizionale rimane un nulla di fatto.
Nessun impatto SEO rilevato nemmeno per l’uso degli attributi rel=external, rel=noopener e rel=noreferrer nei link in pagina. No, non ci sorprende, e sì, a quanto pare qualcuno gliel’ha davvero chiesto, al buon John.
Google KELM: l’intelligenza artificiale diventa giudice del bene e del male
Ed eccoci alla novità più succosa del mese, che approfondiremo in un articolo dedicato in uscita fra qualche giorno: dalla regia si annuncia infatti l’avvento di Google KELM, un modello sviluppato dal team IA di Google per migliorare il modo in cui il linguaggio naturale viene processato dal motore di ricerca. Laddove i vecchi modelli come BERT traevano la loro comprensione del linguaggio naturale da tutto il contenuto trovato sul web senza alcuna distinzione, la promessa di KELM è quella di aumentare il ruolo svolto in tale processo dai contenuti di fiducia, “basati sui fatti”, quelli che comunemente vanno a comporre i Knowledge Graph.
La sfida per Google è attualmente quella di integrare tale corpus di informazioni nel training del modello di analisi del linguaggio: dato che sono codificate sottoforma di dati strutturati, sarà quindi necessario trasformarle in testi scritti in linguaggio naturale utilizzando un metodo chiamato TEKGEN.
Lo scopo dichiarato è quello di ridurre la diffusione di contenuti “tossici” e di parte e privilegiare invece un’informazione accurata e imparziale. KELM – acronimo di Knowledge-Enhanced Language Model – avrà dunque impatto negativo sul ranking di tutti quei siti che hanno alle spalle una consolidata pratica di consapevole distorsione della realtà. Niente di cui preoccuparsi, dunque, se non militate nell’esercito del male dell’informazione online, ma occhi aperti se l’avete fatta franca finora con il click-baiting e le bufale.
Presto su questo blog un approfondimento speciale su Google KELM: rimanete connessi!