La conferenza degli sviluppatori I/O di Google, tenutasi praticamente quest’anno, si è appena conclusa.
Il keynote è ancora disponibile su richiesta, ma nel caso in cui non possiate dedicare due ore a guardarlo, ecco i nostri punti salienti selezionati dagli annunci di prodotto.
Le conversazioni vocali aperte di LaMDA. Sundar Pichai, CEO della società madre di Google Alphabet, ha presentato in anteprima un nuovo modello di conversazione chiamato LaMDA, o “Modello linguistico per applicazioni di dialogo“, all’evento di martedì. Il nuovo modello linguistico è progettato per portare avanti una conversazione aperta con un utente umano senza ripetere le informazioni. LaMDA è ancora in fase iniziale di ricerca, senza date di lancio annunciate.
LaMDA è stata addestrata al dialogo e Google ha posto l’accento sulla sua formazione per produrre risposte sensate e specifiche, invece di risposte più generiche come “è carino” o “non lo so”, che potrebbero comunque essere appropriate anche se meno soddisfacenti per utenti. All’I / O, LaMDA è stata mostrata personificando rispettivamente il pianeta Plutone e un aeroplano di carta. Le conversazioni erano in stile Q&A tra l’utente e LaMDA, ma LaMDA è andata ben oltre fornendo risposte dirette, simili a Google Assistant; invece, ha offerto risposte sfumate che alcuni potrebbero persino considerare spiritose.
Google non ha offerto alcun dettaglio su come potrebbe includere LaMDA in nessuno dei suoi altri prodotti, ma è facile immaginare che LaMDA aiuti gli utenti a trovare i prodotti che stanno cercando o ad esaminare le recensioni di attività commerciali locali, ad esempio.
MAMMA il multitasker.
Google SVP Prabhakar Raghavan ha presentato una nuova tecnologia chiamata Multitask Unified Model (MUM). Simile a BERT, è costruito su un’architettura a trasformatore ma è molto più potente (1.000 volte più potente) ed è in grado di eseguire il multitasking per connettere le informazioni per gli utenti in modi nuovi. La società sta attualmente eseguendo programmi pilota interni con MUM, sebbene non sia stata annunciata alcuna data di lancio pubblica.
Sul palco dell’I/O, Raghavan ha fornito alcuni esempi delle attività che MUM può gestire contemporaneamente:
Acquisire una profonda conoscenza del mondo;
Comprendere e generare il linguaggio;
Allenati in 75 lingue; e
Comprendere più modalità (permettendogli di comprendere più forme di informazioni, come immagini, testo e video).
Raghavan ha usato la query “Ho scalato il Monte. Adams e ora voglio scalare il Monte. Fuji il prossimo autunno, cosa dovrei fare diversamente per prepararmi?” come un esempio che darebbe ai motori di ricerca odierni alcuni problemi a fornire risultati pertinenti per. Nella ricerca simulata sfruttando MUM, Google potrebbe evidenziare le differenze e le somiglianze tra le due montagne e gli articoli di superficie per l’attrezzatura giusta per scalare il Monte. Fuji.