Google ha delineato una serie di aggiornamenti di ricerca in arrivo, progettati per aiutare a semplificare la scoperta dei prodotti e utilizzare più input per fornire risultati di ricerca contestuali migliori.

La principale novità è l’implementazione del suo Multitask Unified Model (MUM) per la ricerca, che consentirà alle persone di condurre ricerche utilizzando input variabili, inclusi elementi visivi, come parametri di ricerca, facilitando la scoperta estesa.

Come spiegato da Google:

“Nei prossimi mesi, introdurremo un nuovo modo di eseguire ricerche visuali, con la possibilità di porre domande su ciò che vedi”.

È un progresso significativo nella capacità di ricerca e potrebbe aprire nuove considerazioni per la scoperta e il modo in cui le persone arrivano alle tue pagine web come risultato dei loro comportamenti e query.

Il processo MUM di Google faciliterà anche ricerche contestuali più ampie, basate sulla comprensione avanzata delle macchine, con Google che ha anche lanciato un nuovo elemento chiamato “Cose da sapere” per aiutare a guidare gli utenti nella giusta direzione.

“Se cerchi “pittura acrilica“, Google capisce come le persone in genere esplorano questo argomento e mostra gli aspetti che è probabile che le persone guardino per primi. Ad esempio, possiamo identificare più di 350 argomenti relativi alla pittura acrilica e aiutarti a trovare la strada giusta da intraprendere”.

google

Questo, ancora una volta, potrebbe diventare un’altra considerazione SEO, con l’aggiunta di più aspetti dei progetti e della relativa scoperta nei risultati di ricerca. Ciò potrebbe rendere molto prezioso assicurarsi di essere in contatto con le ultime tendenze e creare contenuti del sito Web basati su questi elementi, al fine di massimizzare la scoperta.

Google aggiunge anche un’opzione di ricerca approfondita più allineata visivamente per argomenti selezionati, nonché una nuova esperienza che identifica argomenti correlati in un video, con collegamenti per esplorare di più.

Utilizzando MUM, possiamo persino mostrare argomenti correlati che non sono esplicitamente menzionati nel video, in base alla nostra comprensione avanzata delle informazioni nel video. In questo esempio, mentre il video non dice le parole “storia della vita del pinguino di maccheroni”, i nostri sistemi capiscono che gli argomenti contenuti nel video si riferiscono a questo argomento, ad esempio il modo in cui i pinguini di maccheroni trovano i loro familiari e affrontano i predatori.

Google afferma che la prima versione di questa funzione verrà lanciata nelle prossime settimane, con altre in arrivo nei prossimi mesi.

La ricerca visiva è anche un componente chiave nel processo di ricerca avanzato di Google Lens, che faciliterà la scoperta dell’e-commerce consentendo agli utenti dell’app Google di cercare in base a immagini, video e contenuti di testo su un sito web.

“A partire da presto, gli utenti iOS vedranno un nuovo pulsante nell’app Google per rendere tutte le immagini su una pagina ricercabili tramite Google Lens. Ora, trovare questa lampada o quella maglietta (e quelle simili) è a un tocco di distanza”.

Ci sono varie considerazioni all’interno di ciascuno di questi elementi, con i progressi di MUM destinati a cambiare in modo significativo il modo in cui Google visualizza i risultati di ricerca, il che avrà un grande impatto sulla scoperta.

Come, esattamente, ciò potrebbe cambiare il tuo approccio SEO è meno chiaro, ma man mano che questi nuovi processi verranno implementati, avremo maggiori informazioni sul loro impatto sulle SERP e, di conseguenza, sul comportamento degli utenti, che potrebbe richiedere un nuovo approccio ad alcuni aspetti .