In una mossa che ha scatenato dibattiti e riflessioni nel mondo della tecnologia e oltre, Google ha annunciato la sospensione temporanea della produzione di immagini di persone attraverso il suo nuovo modello di intelligenza artificiale, Gemini, a seguito di critiche relative alla rappresentazione etnica di figure storiche quali i soldati tedeschi della Seconda Guerra Mondiale e i Vichinghi. Queste rappresentazioni, che hanno incluso persone di colore in contesti storici tradizionalmente associati a figure caucasiche, hanno sollevato questioni di accuratezza storica e bias nell’IA.
La decisione di Google di interrompere la generazione di immagini di persone con Gemini arriva dopo che gli utenti dei social media hanno condiviso esempi di immagini prodotte dallo strumento che ritraevano figure storiche – inclusi papi e padri fondatori degli Stati Uniti – in una varietà di etnie e generi. “Stiamo già lavorando per affrontare i problemi recenti con la funzione di generazione di immagini di Gemini. Mentre facciamo ciò, metteremo in pausa la generazione di immagini di persone e rilasceremo presto una versione migliorata,” ha dichiarato Google in una nota.
Nonostante Google non abbia fatto riferimento a immagini specifiche nella sua dichiarazione, esempi dei risultati di immagini Gemini erano ampiamente disponibili su X, accompagnati da commenti sulle questioni di accuratezza e bias dell’IA. Un ex dipendente di Google ha evidenziato la difficoltà nel far riconoscere da Google Gemini l’esistenza delle persone bianche.
Jack Krawczyk, direttore senior del team Gemini di Google, ha ammesso che il generatore di immagini del modello necessitava di aggiustamenti. “Stiamo lavorando per migliorare immediatamente questi tipi di rappresentazioni,” ha detto. Krawczyk ha aggiunto che, sebbene la generazione di immagini IA di Gemini produca un’ampia gamma di persone, cosa generalmente positiva data la sua utenza globale, è chiaro che “qui si è mancato il bersaglio”.
La copertura del bias nell’IA ha evidenziato numerosi esempi di impatto negativo sulle persone di colore, inclusa un’indagine del Washington Post che ha mostrato esempi di generatori di immagini che mostrano bias contro le persone di colore e sessismo. Andrew Rogoyski, dell’Istituto per l’IA Centrata sulle Persone all’Università di Surrey, ha commentato che mitigare il bias è un “problema difficile nella maggior parte dei campi dell’apprendimento profondo e dell’IA generativa”, ma è probabile che le cose migliorino con il tempo grazie alla ricerca e a diversi approcci per eliminare il bias.
In conclusione, la pausa di Google nella generazione di immagini di persone con Gemini sottolinea l’importanza di affrontare e correggere il bias nell’intelligenza artificiale, evidenziando la necessità di un’attenzione costante alle questioni di equità e inclusione nelle tecnologie emergenti.
Iscriviti alla newsletter. Resta aggiornato!
Te la invieremo periodicamente per comunicazioni importanti e news sul mondo digitale. Potrai disiscriverti in ogni momento cliccando l'apposito link in calce alla newsletter.