Recentemente, Google ha dovuto limitare la nuova funzionalità di ricerca con intelligenza artificiale (IA) introdotta negli Stati Uniti, a causa di alcune risposte fuorvianti condivise online dagli utenti.
Questa nuova sezione, denominata “AI Overview” fornisce un riassunto testuale prima dei tradizionali risultati di ricerca. Il problema è che, alcuni esempi di risposte, come suggerire di completare una pizza con della colla o mangiare sassi in caso di carenza di vitamine, hanno costretto Google a disabilitare temporaneamente la funzionalità per alcune ricerche.
Lanciata in via sperimentale nel maggio 2023 sotto il nome di “Search Generative Experience” questa funzionalità è stata testata per un anno. Secondo l’amministratore delegato Sundar Pichai, in dodici mesi, gli utenti hanno utilizzato questa nuova modalità di ricerca per oltre un miliardo di query.
Nonostante l’ampio utilizzo, l’IA ha dimostrato di avere ancora dei limiti davvero enormi che la rendono, forse, meno competitiva rispetto a OpenAI.
Meghann Farnsworth, portavoce di Google, ha dichiarato a The Verge che molti degli esempi di risposte problematiche riguardavano domande insolite o modificate, che l’IA non era in grado di gestire adeguatamente. Farnsworth ha aggiunto che Google sta utilizzando questi esempi per migliorare i propri sistemi e che alcuni miglioramenti sono già stati implementati.
La decisione di Google di limitare l’uso della funzione “AI Overview” è una mossa prudente per garantire che le informazioni fornite siano accurate e utili.
Questo problema, in certi casi molto divertente date le risposte date, mostra in modo chiaro i rischi associati all’implementazione di tecnologie emergenti senza un’adeguata supervisione. Sebbene l’intelligenza artificiale possa offrire vantaggi importanti, come una ricerca più veloce e precisa, è fondamentale che le risposte generate siano affidabili e sicure per gli utenti.
Ritengo che l’episodio metta in luce la necessità di un costante monitoraggio e aggiornamento dei sistemi di IA. Le aziende devono essere pronte a intervenire rapidamente per correggere eventuali errori e migliorare continuamente i propri algoritmi. Inoltre, gli utenti devono essere consapevoli dei limiti delle tecnologie basate su IA e mantenere un approccio critico e attento quando si affidano a queste risorse per informazioni importanti, in particolare in questo periodo di sperimentazione.