Rolling Stone Italia

L’AI sta cambiando la nostra percezione del cibo, e non è una buona notizia

Chef che non esistono, ricette inventate, ingredienti pericolosi. E immagini che ci fanno venire l'acquolina in bocca abituandoci a visioni distorte di quello che ci troveremo davvero nel piatto. Avete mai visto gamberi fritti a forma di farfalla?

Foto: Bongkarn/Adobe Stock

Justine Moore, della società di venture capital Andreessen Horowitz, in Silicon Valley, domenica scorsa ha twittato una cosa curiosa in cui si è imbattuta. Era un account Instagram associato al nickname @ethos_atx, che diceva di pubblicizzare l’Ethos, un ristorante di lusso di Austin, Texas. Ma, come ha fatto notare Moore, questo locale non esiste, nonostante abbia decine di migliaia di follower e il segno di spunta blu di account verificato. E tutti gli scatti di cibo immortalato nella pagina (anche le foto dello “staff”) sono generati dall’AI.

I commenti ai post di Ethos, con fotografie di piatti bizzarri (tipo una salsiccia delle dimensioni di un braccio o una pizza a forma di piede, la “feetza”), sono un mix di apprezzamenti generici evidentemente scritti da bot, alcune reazioni che sembrerebbero autentiche, farina del sacco di follower creduloni, e parecchie persone sconcertate dal fatto che qualcuno possa scambiare quelle immagini fasulle per del cibo vero.

Non è ancora chiaro chi ci sia dietro la pagina di Ethos, ma sembrerebbe uno scherzo molto ben studiato: in un post si vede il boss di Amazon, Jeff Bezos, che prepara dei cocktail al bancone bar come penitenza perché è arrivato ultimo in un campionato di Fantacalcio e nel sito web ufficiale linkato si legge che le prenotazioni si aprono alle «4:30 del primo lunedì di ogni mese», ironizzando palesemente su certi ristoranti snob pompatissimi. Sembra anche che il simpaticone di turno abbia trovato il modo di monetizzare la sua burla, vendendo magliette di Ethos con frasi ammiccanti come “Unreal Flavors” (gusti irreali, che in questo caso è letteralmente vero, ndr).

Ma, al netto di questa presa in giro, i contenuti in tema di food generati dall’AI hanno contaminato il lato culinario di Internet in modi molto più allarmanti. Su Facebook, una piattaforma che in effetti ha favorito lo spam selvaggio di qualunque contenuto AI-generated, le pagine di cucina sono piene di immagini create con l’Intelligenza Artificiale che dovrebbero mostrare il risultato finale di una certa preparazione. Una pagina che si chiama “Recipes Formula”, per esempio, ha come foto profilo quella di una “chef” che inspiegabilmente ha tre mani e condivide una valanga di immagini di piatti dalla consistenza e dal colore leggermente inquietanti (se si ha un po’ d’occhio). Gli scatti sono abbinati a testi di ricette copiati direttamente da altri siti web o generati da vari software di AI (e questo non è un problema da poco, per i cuochi fai da te, visto che l’AI di Google consiglia la colla Elmer’s come ingrediente per il sugo di pomodoro). Eppure la pagina ha 44.000 follower.

Screenshot da ‘Rolling Stone US’

Il ricercatore e sviluppatore noto con lo pseudonimo Conspirador Norteño, la scorsa settimana ha segnalato una pagina Facebook simile, “Cook Fastly”, gestita da un fantomatico “David” (anche se un sito web esterno parla di tale “Lojaine”). Anche qui, decine di migliaia di abbonati restano affascinati da immagini di cene e prodotti da forno dall’aspetto perfetto, roba che non si vede mai nel cibo vero. Ovviamente ogni tanto si notano indizi chiari dell’inganno, come quando l’AI non riesce a riprodurre correttamente il logo degli Oreo.

Fino a poco tempo fa, l’Intelligenza Artificiale aveva problemi nel generare immagini di cibo che ci ingolosisse, creando spesso piatti stravaganti e poco appetibili. Però, in un articolo accademico pubblicato all’inizio di quest’anno dalla rivista Food Quality and Preference, si legge che alcuni ricercatori hanno scoperto che i modelli di AI tendono a far apparire il cibo «un po’ più lucido e con una luce più calda e uniforme», aumentandone l’appeal. In effetti i partecipanti al sondaggio, in generale, hanno valutato le immagini generate dall’Intelligenza Artificiale come «più appetitose delle foto reali», senza sapere quali fotografie fossero false e quali vere. I partecipanti sono stati abbastanza bravi a riconoscere il materiale generato dall’AI (soprattutto le immagini che imitavano cibi ultra-processati, come patatine fritte e milkshake), ma Charles Spence, psicologo dell’Università di Oxford e coautore dell’articolo, ha messo in guardia dalle potenziali criticità per i brand e i creator dell’industria alimentare che fanno ricorso a questa tecnologia.

«Se, da un lato, le immagini generate dall’AI costituiscono un’opportunità di risparmio per gli operatori del marketing e dell’industria, riducendo i costi di servizi fotografici ad hoc, dall’altro questi risultati evidenziano i rischi potenziali di una iperstimolazione della “fame visiva” nei consumatori, il fenomeno per cui le immagini scatenano l’appetito e la voglia di un certo cibo», ha spiegato Spence in un’intervista. «Potenzialmente, questo potrebbe spingere a comportamenti alimentari dannosi o generare nei consumatori aspettative sul cibo non aderenti alla realtà».

Il divario tra la percezione e la realtà è già diventato un problema nel settore del delivery. L’azienda indiana Zomato, per esempio, di recente ha annunciato di volere evitare l’AI e ha incoraggiato i suoi partner ristoratori a fare lo stesso, adducendo «ripercussioni sulla fiducia dei clienti e un impatto negativo sul business».

L’amministratore delegato, Deepinder Goyal, ha promesso di «iniziare un’opera approfondita di rimozione dai menu di quelle immagini» e il ricorso a strumenti automatici per «individuare e scartare» quelle che saranno inserite in seguito. La società di delivery Foodora, che opera in Europa settentrionale e centrale, adottando un approccio esattamente opposto, all’inizio di quest’anno ha dichiarato di avere cominciato a «implementare l’AI per migliorare le foto dei nostri partner».

Questa iniziativa ha portato a risultati disastrosi: gli utenti di Foodora ben presto hanno notato alcune anomalie, come panini farciti raffigurati come semplici baguette vuote e un piatto di gamberi fritti a forma di farfalla (un software di AI ha creato immagini di gamberi cotti che sembravano proprio farfalle). L’azienda ha dichiarato ai media di aver condotto “dei test” con strumenti di Intelligenza Artificiale e che si stava provvedendo alla rimozione delle immagini errate.

Screenshot da ‘Rolling Stone US’

Questa è solo un’altra prova (come se ce ne fosse davvero bisogno) del fatto che nessun settore della vita online è al riparo dal flagello della spazzatura generata dall’Intelligenza Artificiale. Anche in aree lontane dal marasma della politica tossica, della disinformazione e delle teorie della cospirazione, questo tipo di software sta indebolendo la nostra certezza di discernere ciò che è vero dal falso, sostituendola con illusioni bizzarre. Gli evangelisti tecnologici crederanno ancora nel potere trasformativo della rivoluzione dell’AI che è in atto, ma a tutti gli altri questo giochino sta iniziando a lasciare dell’amaro in bocca.

Da Rolling Stone US

Iscriviti