In recent years, Sam Altman’s company has made extraordinary contributions to the progress of artificial intelligence, even before ChatGPT, which is on everyone’s lips because, at least initially, it was offered for free to the general public worldwide. However, Altman’s relationship with ethics has changed.
OpenAI, which gave rise to ChatGPT, was created in 2015 in a room at the Rosewood Hotel in the heart of Silicon Valley by a group of visionary entrepreneurs (which initially even included Elon Musk) convinced of AI’s amazing potential, both for good and for bad. They thus decided to dedicate themselves to researching AI, planning to use it objectives that would both benefit society and maximize profits. To avoid a transformation like Google’s, which morphed from the decency of its old slogan “Don’t be evil” to the cutthroat capitalism of Wall Street, OpenAI was born as a philanthropic foundation; a nongovernmental organization meant to ensure "that artificial general intelligence benefits all of humanity.” Those who licensed the software were forbidden to exploit it in ways “that may be used to influence the political process or to campaign" … [or] "for research related to citizens’ access to credit, the labor market, or other essential services.”*
In recent years, Sam Altman’s company has made extraordinary contributions to the progress of artificial intelligence, even before ChatGPT, which is on everyone’s lips because, at least initially, it was offered for free to the general public worldwide. However, Altman’s relationship with ethics has changed. Philanthropy was not enough to support complex research; the open-source model — gifting the world with elaborate code — limited the company’s horizons. Enter Microsoft, where alongside the foundation, a new company was founded with commercial objectives.
Altman has continued to display ethical sensibilities. Last year when he launched Dall-E 2 — which generates images from text, a revolution in art — Altman imposed restrictions to avoid aberrant use, from disinformation to pornography. Other, more unscrupulous start-ups have adopted similar software without imposing limitations. And many artists have preferred these tools, which give them more freedom. To return to pole position, Altman launched ChatGPT, which is extraordinary and problematic from many points of view. Disinformation experts who have tested ChatGPT say it could greatly multiply the conspiracy theories that already infect every corner of the web, producing new and more credible ones. This is yet more proof that self-regulation, even when pursued sincerely and with determination as in Altman’s case, is not enough.
*Translator’s note: Although accurately translated, this original quoted remark could not be independently verified.
Intelligenza artificiale: ecco le due facce
di Massimo Gaggi | 09 febbraio 2023
La società di Sam Altman in questi anni ha dato contributi straordinari al progresso dell’intelligenza artificiale, anche prima di ChatGPT che è sulla bocca di tutti perché, almeno inizialmente, è stato offerto senza limiti al pubblico mondiale. Ma il suo rapporto con l’etica è cambiato.
OpenAI, creatrice di ChatGPT, è nata nel 2015 in una sala del Rosewood Hotel, nel cuore della Silicon Valley da un gruppo di imprenditori visionari (all’inizio c’era anche Elon Musk), convinti delle grandi potenzialità dell’intelligenza artificiale, nel bene e nel male. E, quindi, decisi a impegnarsi nella ricerca, ma anche a indirizzarla verso obiettivi di utilità sociale anziché di massimizzazione del profitto. Evitando metamorfosi come quella di Google, passata dal buonismo del suo vecchio slogan, «Don’t be evil», non fare del male, allo spietato capitalismo di Wall Street. Per questo OpenAI nacque come fondazione filantropica: niente scopi di lucro e grande impegno per «allineare la tecnologia agli interessi dell’umanità». Proibito, per chi usava il suo software su licenza, sfruttarlo «per influenzare il processo politico o le campagne elettorali» o per «indagini relative all’accesso dei cittadini al credito, al mercato del lavoro o ad altri servizi essenziali». La società di Sam Altman in questi anni ha dato contributi straordinari al progresso dell’intelligenza artificiale, anche prima di ChatGPT che è sulla bocca di tutti perché, almeno inizialmente, è stato offerto senza limiti al pubblico mondiale. Ma il suo rapporto con l’etica è cambiato. La filantropia non bastava a sostenere ricerche complesse, il modello open (regalare al mondo i codici elaborati) limitava gli orizzonti. Entrò Microsoft mentre accanto alla fondazione nacque una società con obiettivi commerciali.
Altman ha continuato a mostrare sensibilità etica. Quando, l’anno scorso, ha lanciato Dall-E 2, un generatore di immagini a partire da testi, una rivoluzione per l’arte, ha imposto vincoli per evitarne usi perversi: dalla disinformazione alla pornografia. Altre start up più spregiudicate hanno adottato software simili, senza limiti. E molti artisti hanno preferito questi tool che li lasciano più liberi. Per tornare in pole position Altman ha lanciato ChatGPT, straordinario e problematico da molti punti di vista. Gli esperti di disinformazione che l’hanno testato dicono che può diventare un grande moltiplicatore delle teorie cospirative che già infettano ogni angolo del web, producendone di nuove e più credibili. Altra prova che l’autoregolamentazione, anche quando perseguita con sincerità e determinazione, come nel caso di Altman, non basta.
This post appeared on the front page as a direct link to the original article with the above link
.