The use of Scarlett Johansson's voice without her consent is just the latest example, but there are too many “gray areas.”
Sam Altman confirmed OpenAI’s dominance by presenting its new “multimodal” artificial intelligence model 24 hours before Google launched its new model, once again relegating Google to runner-up. Just a few hours later, Altman was reduced to correcting, clarifying and apologizing to Scarlett Johansson for making his digital assistant speak with a voice identical to hers. Has the leader driving us toward a fascinating and mysterious world been caught red-handed?
The case is controversial (for example, using an unknown actress with a similar voice) but behind it is something else altogether: the defiance and condemnation coming from the Hollywood star, who twice turned down OpenAI’s request to use her voice, has focused general attention on what experts have been noticing for some time. Altman, who began his artificial intelligence adventure nine years ago as a philanthropic entrepreneur who was allergic to Google's profit-making mindset, promising to be a transparent, collaborative creator of safe open source technologies available to all, has not only given up his idealism (which was sometimes based on wishful thinking) but increasingly resembles Mark Zuckerberg and his bulldozer mantra, “Move fast and break things.”
The Johansson incident shows how carelessly not only Altman, but also a large part of the tech industry world, believe they can treat the rights of content producers used to train their AI models. Notwithstanding Johansson refusing permission twice, OpenAI used a voice that sought to imitate that of Johansson. Now the company is beating a retreat, telling The Washington Post that it sought and hired a voice last summer before Altman approached Johansson — a different voice, says the paper, quoting the actress (who prefers to remain anonymous) and her agent (who is also anonymous). OpenAI is trying to show goodwill (and has suspended the use of the “incriminating” voice), but it is difficult to do that when an overly confident Altman showed how much he was pushing it by posting a message, just as the new product launched, with a single word, “Her.” This was the title of the 2013 cult film in which Joaquin Phoenix falls in love with an AI figure voiced by Johansson.
This is not an isolated case. A few days ago, Mira Murati, OpenAI's chief technology officer, told The Wall Street Journal that she didn't know whether content from YouTube, Instagram or other platforms had been used to train Sora, the new generative intelligence model that transforms texts into videos. The New York Times jogged her memory with an investigative inquiry by five of its journalists. Having run out of good quality texts it could access online to train its AI models, OpenAI scraped millions of hours of video from YouTube. A violation of our terms of service, thundered YouTube, owned by Google — which itself uses the same technology to train its own AI.
Of course, YouTube belongs to Google, but those who have channels on this platform have their own rights. Competition among AI manufacturers is becoming increasingly heated; therefore, they are turning to the gray area of “fair use” — the use of everything that is online, as long as it is not for commercial purposes — to grab everything.
The issue of copyright violation has a serious impact on the publishing industry and content providers, a complex area that will end up working against the very same big tech giants, which will have increasing difficulty finding quality material to feed to their generative AI models. This will be a subject for further investigation.
Here we should point out that, from the time he returned to head OpenAI after the failed coup by the ethical wing of the company’s board, Altman has been pushing the technology's development to the max, greatly reducing (or completely removing) the safeguards that he promised to adopt, having learned from the negative consequences of social media’s unregulated development and aware of AI's enormous potential.
Ilya Sutskever, cofounder of OpenAI, developer of ChatGPT, but also leader of the plot to oust Altman who was accused of betraying the company's ethical principles, has departed. Other scientists left both before and after Sutskever, scientists who had been critical of the way the company was run but who were bound to lifelong silence. They had been forced to sign non-disparagement agreements that covered everything, including the very existence of these non-disclosure agreements, on pain of losing a major portion of the vested equity owed them for their work in the company.
When this extreme practice was leaked to the press, Altman appeared surprised. “I did not know this was happening and I should have.” This is yet further confirmation that now even Altman has fully embraced the rationale of pushing to the limit without worrying about damages or violating rights, always doing so just in time to excuse himself afterward. And commitments to transparency will have to wait. Meanwhile, the Superalignment team — a team of 20 scientists created 10 months ago to ensure the safety of the new technologies developed by OpenAI and offered to the public — is being dismantled.
Altman continues to call for regulations and claims he is determined to avoid dangerous outcomes from AI, but in the end, even he is going back to the roots of Silicon Valley's dominant culture: “It will happen, whether you like it or not,” he said.* Perhaps it is an inevitable springboard to success. But we should stop treating these pioneers as statesmen — even if they are more powerful than many heads of state.
*Translator’s Note: Although accurately translated, this quote could not be independently verified.
L'intelligenza artificiale corre, ma senza regole
di Massimo Gaggi | 24 maggio 2024
La voce di Scarlett Johansson usata senza il suo consenso è solo l’ultimo esempio. Ma ci sono troppo «zone grigie»
Sam Altman conferma la supremazia di OpenAI presentando la sua nuova intelligenza artificiale «multimodale» 24 ore prima dell’annuncio delle innovazioni di Google, di nuovo relegata nel ruolo dell’inseguitore. Passano poche ore ed eccolo costretto a correggere, precisare, scusarsi con Scarlett Johansson: fa parlare il suo assistente digitale con una voce identica alla sua. Il condottiero che ci guida verso un mondo affascinante e misterioso colto con le mani nella marmellata? Il caso ha aspetti controversi (sarebbe stata usata un’attrice sconosciuta con una voce simile) ma dietro c’è ben altro: la ribellione e la denuncia della star di Hollywood che aveva respinto per due volte le richieste di OpenAI di usare la sua voce, attira l’attenzione generale su qualcosa che gli addetti ai lavori hanno cominciato a metabolizzare già da tempo: Altman, che nove anni fa ha iniziato l’avventura dell’intelligenza artificiale da imprenditore filantropo allergico alle logiche del profitto di Google, promettendo di essere trasparente, collaborativo, creatore di tecnologie open source sicure e a disposizione di tutti, non solo ha rinunciato al suo idealismo (a volte basato su propositi velleitari) ma somiglia sempre più al Mark Zuckerberg della logica bulldozer «avanza veloce e rompi quello che c’è da rompere».
La vicenda di Scarlett dà l’idea di come Altman, ma anche gran parte del mondo dell’industria tecnologica, pensano di poter trattare con noncuranza i diritti dei produttori di contenuti usati per addestrare i modelli di AI. Nonostante un doppio rifiuto, OpenAI ha usato una voce che cerca di imitare quella di Scarlett. Ora la società corre ai ripari e informa il Washington Post di aver cercato e scritturato una voce nella scorsa estate, prima della richiesta di Altman alla Johansson. Voce diversa, dice il quotidiano citando l’attrice (che preferisce l’anonimato) e il suo agente (anonimo anche lui). OpenAI cerca di dimostrare la sua buona fede (e intanto sospende l’uso della voce «incriminata») ma è difficile farlo quando Altman, per eccesso di sicurezza, aveva certificato la sua forzatura mettendo in rete, nel momento del lancio del nuovo prodotto OpenAI, un post con una sola parola: «Her»: il film di culto del 2013 nel quale Joaquin Phoenix si innamora di una AI con la voce della Johansson.
Non è un caso isolato: giorni fa, intervistata dal Wall Street Journal, Mira Murati, capo operativo di OpenAI, ha detto di non sapere se per l’addestramento di Sora, nuova intelligenza generativa che trasforma testi in filmati video, siano stati usati contenuti di YouTube, Instagram o materiale di altre piattaforme. Gli ha rinfrescato la memoria il New York Times con un’inchiesta di giornalismo investigativo che ha impegnato cinque sue firme: avendo esaurito il ricorso a testi di qualità disponibili in rete per addestrare i suoi modelli di AI, OpenAI avrebbe trascritto un milione di ore di video di YouTube. Violazione dei nostri termini di servizio, denuncia YouTube, posseduta da Google. La quale, però, usa la stessa tecnica per addestrare la sua AI.
Certo, YouTube è sua, ma chi ha creato canali su questa piattaforma ha i suoi diritti. La competizione tra produttori di AI è sempre più accesa e allora si usa l’alibi dell’«area grigia» del cosiddetto fair use (l’uso di tutto ciò che è in rete, consentito se non è sfruttato a fini commerciali) per prendere tutto.
La questione del copyright calpestato ha conseguenze pesanti sull’editoria e sui produttori di contenuti: materia complessa che finirà per ritorcersi contro gli stessi giganti big tech (faranno sempre più fatica a trovare contenuti di qualità da dare in pasto alle loro AI generative). Un tema che andrà approfondito. Qui si vuole soprattutto mettere in luce che, da quando è tornato al vertice di OpenAI dopo il fallito golpe dell’ala etica del board della società, Altman sta spingendo al massimo lo sviluppo della tecnologia ridimensionando molto (o annullando) le cautele che aveva promesso di adottare, avendo imparato dalle conseguenze negative dello sviluppo senza regole delle reti sociali e consapevole dell’enorme potenza dell’AI.
Ilya Sutskever, cofondatore di OpenAI, padre di ChatGPT, ma anche capo della congiura che aveva tentato di defenestrare Altman accusato di tradire i principi etici dell’azienda, se n’è andato. Prima e dopo di lui sono usciti altri scienziati critici con la gestione del gruppo ma obbligati al silenzio a vita: hanno dovuto firmare un impegno a tacere su tutto, compresa l’esistenza stessa di questi non-disclosure agreements, pena la perdita di gran parte dei benefici economici dovuti per il loro lavoro in azienda.
Quando questa pratica estrema è trapelata sulla stampa, Altman è caduto dalle nuvole: «Non sapevo nulla, faccio correggere». Altra conferma che ormai pure lui ha abbracciato la logica dell’avanzare a oltranza senza preoccuparsi di danni o diritti violati: si fa sempre in tempo a scusarsi dopo. E pazienza per gli impegni alla trasparenza. Intanto il Superalignment Team — la squadra di 20 scienziati creata dieci mesi fa per garantire la sicurezza delle nuove tecnologie sviluppate da OpenAI e offerte al pubblico — è stato smantellato. Altman continua a chiedere regole e a dirsi deciso ad evitare derive pericolose dell’AI, ma alla fine anche lui sta tornando nell’alveo della cultura dominante in Silicon Valley: «Che ti piaccia o no, accadrà». Sarà la molla del successo, magari è inevitabile. Ma smettiamo di vedere in questi pionieri degli statisti. Anche se sono più potenti dei capi di molti Stati.
This post appeared on the front page as a direct link to the original article with the above link
.