OpenAI afferma di voler implementare idee provenienti dal pubblico su come assicurare che i suoi futuri modelli di intelligenza artificiale "si allineino ai valori dell'umanità".
A tal fine, la startup di intelligenza artificiale sta creando un nuovo team chiamato Collective Alignment, composto da ricercatori e ingegneri, con l'obiettivo di creare un sistema per raccogliere e "codificare" il contributo pubblico sul comportamento dei suoi modelli nei prodotti e servizi OpenAI, come annunciato oggi dall'azienda.
"Nel frattempo, continueremo a collaborare con consulenti esterni e team di ricerca, incluso l'avvio di pillole per incorporare ... prototipi nella guida dei nostri modelli", scrive OpenAI in un post sul blog. "Stiamo cercando... ingegneri di ricerca con diversi background tecnici per aiutarci a sviluppare questo lavoro con noi".
Il team di Collective Alignment è un'evoluzione del programma pubblico di OpenAI, lanciato lo scorso maggio, per assegnare sovvenzioni per finanziare esperimenti volti a creare un "processo democratico" per decidere quali regole dovrebbero seguire i sistemi di intelligenza artificiale. L'obiettivo del programma, dichiarato da OpenAI al suo debutto, era finanziare individui, team e organizzazioni per sviluppare prove di concetto che potessero rispondere a domande sulle linee guida e la governance per l'IA.
Nel suo post sul blog di oggi, OpenAI ha riassunto il lavoro dei beneficiari delle sovvenzioni, che spaziava dalle interfacce per video chat alle piattaforme per audit crowdsourced dei modelli di IA e "approcci per mappare le convinzioni in dimensioni che possono essere utilizzate per raffinare il comportamento del modello". Tutto il codice utilizzato nel lavoro dei beneficiari delle sovvenzioni è stato reso pubblico questa mattina, insieme a brevi riassunti di ciascuna proposta e considerazioni di alto livello.
OpenAI ha cercato di presentare il programma come distaccato dai suoi interessi commerciali. Ma questo è un po' difficile da accettare, considerando le critiche del CEO di OpenAI, Sam Altman, alla regolamentazione nell'UE e altrove. Altman, insieme al presidente di OpenAI, Greg Brockman, e al chief scientist Ilya Sutskever, hanno ripetutamente sostenuto che il ritmo dell'innovazione nell'IA è così veloce che non possiamo aspettarci che le autorità esistenti riescano a frenare adeguatamente la tecnologia, da qui la necessità di coinvolgere la folla nel lavoro.
Alcuni rivali di OpenAI, tra cui Meta, hanno accusato OpenAI (tra gli altri) di cercare di ottenere una "cattura regolamentare dell'industria dell'IA" facendo pressioni contro la ricerca e sviluppo aperti nell'IA. OpenAI nega questo fatto, come era prevedibile, e probabilmente farebbe riferimento al programma di sovvenzioni (e al team di Collective Alignment) come esempio della sua "apertura".
In ogni caso, OpenAI è sempre più sotto la lente d'ingrandimento dei legislatori, affrontando un'indagine nel Regno Unito sulla sua relazione con il partner e investitore stretto Microsoft. La startup ha recentemente cercato di ridurre il rischio regolamentare nell'UE in materia di privacy dei dati, sfruttando una controllata con sede a Dublino per limitare la capacità di alcuni organismi di tutela della privacy nel blocco di agire unilateralmente su determinate preoccupazioni.
Ieri - in parte per tranquillizzare i regolatori, senza dubbio - OpenAI ha annunciato che sta collaborando con organizzazioni per cercare di limitare i modi in cui la sua tecnologia potrebbe essere utilizzata per influenzare o condizionare le elezioni attraverso mezzi maliziosi. Gli sforzi della startup includono rendere più evidente quando le immagini sono generate dall'IA utilizzando i suoi strumenti e sviluppare approcci per identificare i contenuti generati anche dopo che le immagini sono state modificate.