Artificial Intelligence Runs outside the Rules

<--

L’intelligenza artificiale corre, ma senza regole

di Massimo Gaggi | 24 maggio 2024

La voce di Scarlett Johansson usata senza il suo consenso è solo l’ultimo esempio. Ma ci sono troppo «zone grigie»

Sam Altman conferma la supremazia di OpenAI presentando la sua nuova intelligenza artificiale «multimodale» 24 ore prima dell’annuncio delle innovazioni di Google, di nuovo relegata nel ruolo dell’inseguitore. Passano poche ore ed eccolo costretto a correggere, precisare, scusarsi con Scarlett Johansson: fa parlare il suo assistente digitale con una voce identica alla sua. Il condottiero che ci guida verso un mondo affascinante e misterioso colto con le mani nella marmellata? Il caso ha aspetti controversi (sarebbe stata usata un’attrice sconosciuta con una voce simile) ma dietro c’è ben altro: la ribellione e la denuncia della star di Hollywood che aveva respinto per due volte le richieste di OpenAI di usare la sua voce, attira l’attenzione generale su qualcosa che gli addetti ai lavori hanno cominciato a metabolizzare già da tempo: Altman, che nove anni fa ha iniziato l’avventura dell’intelligenza artificiale da imprenditore filantropo allergico alle logiche del profitto di Google, promettendo di essere trasparente, collaborativo, creatore di tecnologie open source sicure e a disposizione di tutti, non solo ha rinunciato al suo idealismo (a volte basato su propositi velleitari) ma somiglia sempre più al Mark Zuckerberg della logica bulldozer «avanza veloce e rompi quello che c’è da rompere».

La vicenda di Scarlett dà l’idea di come Altman, ma anche gran parte del mondo dell’industria tecnologica, pensano di poter trattare con noncuranza i diritti dei produttori di contenuti usati per addestrare i modelli di AI. Nonostante un doppio rifiuto, OpenAI ha usato una voce che cerca di imitare quella di Scarlett. Ora la società corre ai ripari e informa il Washington Post di aver cercato e scritturato una voce nella scorsa estate, prima della richiesta di Altman alla Johansson. Voce diversa, dice il quotidiano citando l’attrice (che preferisce l’anonimato) e il suo agente (anonimo anche lui). OpenAI cerca di dimostrare la sua buona fede (e intanto sospende l’uso della voce «incriminata») ma è difficile farlo quando Altman, per eccesso di sicurezza, aveva certificato la sua forzatura mettendo in rete, nel momento del lancio del nuovo prodotto OpenAI, un post con una sola parola: «Her»: il film di culto del 2013 nel quale Joaquin Phoenix si innamora di una AI con la voce della Johansson.

Non è un caso isolato: giorni fa, intervistata dal Wall Street Journal, Mira Murati, capo operativo di OpenAI, ha detto di non sapere se per l’addestramento di Sora, nuova intelligenza generativa che trasforma testi in filmati video, siano stati usati contenuti di YouTube, Instagram o materiale di altre piattaforme. Gli ha rinfrescato la memoria il New York Times con un’inchiesta di giornalismo investigativo che ha impegnato cinque sue firme: avendo esaurito il ricorso a testi di qualità disponibili in rete per addestrare i suoi modelli di AI, OpenAI avrebbe trascritto un milione di ore di video di YouTube. Violazione dei nostri termini di servizio, denuncia YouTube, posseduta da Google. La quale, però, usa la stessa tecnica per addestrare la sua AI.

Certo, YouTube è sua, ma chi ha creato canali su questa piattaforma ha i suoi diritti. La competizione tra produttori di AI è sempre più accesa e allora si usa l’alibi dell’«area grigia» del cosiddetto fair use (l’uso di tutto ciò che è in rete, consentito se non è sfruttato a fini commerciali) per prendere tutto.

La questione del copyright calpestato ha conseguenze pesanti sull’editoria e sui produttori di contenuti: materia complessa che finirà per ritorcersi contro gli stessi giganti big tech (faranno sempre più fatica a trovare contenuti di qualità da dare in pasto alle loro AI generative). Un tema che andrà approfondito. Qui si vuole soprattutto mettere in luce che, da quando è tornato al vertice di OpenAI dopo il fallito golpe dell’ala etica del board della società, Altman sta spingendo al massimo lo sviluppo della tecnologia ridimensionando molto (o annullando) le cautele che aveva promesso di adottare, avendo imparato dalle conseguenze negative dello sviluppo senza regole delle reti sociali e consapevole dell’enorme potenza dell’AI.

Ilya Sutskever, cofondatore di OpenAI, padre di ChatGPT, ma anche capo della congiura che aveva tentato di defenestrare Altman accusato di tradire i principi etici dell’azienda, se n’è andato. Prima e dopo di lui sono usciti altri scienziati critici con la gestione del gruppo ma obbligati al silenzio a vita: hanno dovuto firmare un impegno a tacere su tutto, compresa l’esistenza stessa di questi non-disclosure agreements, pena la perdita di gran parte dei benefici economici dovuti per il loro lavoro in azienda.

Quando questa pratica estrema è trapelata sulla stampa, Altman è caduto dalle nuvole: «Non sapevo nulla, faccio correggere». Altra conferma che ormai pure lui ha abbracciato la logica dell’avanzare a oltranza senza preoccuparsi di danni o diritti violati: si fa sempre in tempo a scusarsi dopo. E pazienza per gli impegni alla trasparenza. Intanto il Superalignment Team — la squadra di 20 scienziati creata dieci mesi fa per garantire la sicurezza delle nuove tecnologie sviluppate da OpenAI e offerte al pubblico — è stato smantellato. Altman continua a chiedere regole e a dirsi deciso ad evitare derive pericolose dell’AI, ma alla fine anche lui sta tornando nell’alveo della cultura dominante in Silicon Valley: «Che ti piaccia o no, accadrà». Sarà la molla del successo, magari è inevitabile. Ma smettiamo di vedere in questi pionieri degli statisti. Anche se sono più potenti dei capi di molti Stati.

About this publication