OpenAI-medewerkers waarschuwen voor cultuur van risico en vergelding
Een groep huidige en voormalige OpenAI-medewerkers heeft een openbare brief uitgebracht waarin wordt gewaarschuwd dat het bedrijf en zijn concurrenten kunstmatige intelligentie ontwikkelen met onnodige risico's, zonder voldoende toezicht, en terwijl ze medewerkers het zwijgen opleggen die mogelijk onverantwoordelijke activiteiten zouden kunnen waarnemen.
Risico's van AI-ontwikkeling
De brief benadrukt verschillende risico's die gepaard gaan met de huidige ontwikkeling van kunstmatige intelligentie. Deze variëren van het verder verankeren van bestaande ongelijkheden, tot manipulatie en desinformatie, tot het verlies van controle over autonome AI-systemen, wat mogelijk kan resulteren in het uitsterven van de mensheid. "Zolang er geen effectief overheidstoezicht is op deze bedrijven, behoren huidige en voormalige medewerkers tot de weinige mensen die hen verantwoordelijk kunnen houden," luidt de brief.
Oproep tot bescherming van klokkenluiders
De brief roept niet alleen OpenAI, maar alle AI-bedrijven op om zich te committeren aan het niet straffen van medewerkers die zich uitspreken over hun activiteiten. Het roept bedrijven ook op om "verifieerbare" manieren te creëren voor werknemers om anonieme feedback te geven over hun activiteiten. "Gewone klokkenluidersbescherming is onvoldoende omdat ze zich richten op illegale activiteiten, terwijl veel van de risico's waar wij ons zorgen over maken nog niet gereguleerd zijn," aldus de brief.
Kritiek op OpenAI's beleid
OpenAI kwam vorige maand onder kritiek te staan nadat een artikel van Vox onthulde dat het bedrijf had gedreigd om het aandelenkapitaal van medewerkers terug te vorderen als ze geen geheimhoudingsverklaringen zouden ondertekenen die hen verbieden het bedrijf te bekritiseren of zelfs maar het bestaan van een dergelijke overeenkomst te vermelden. OpenAI's CEO, Sam Altman, zei onlangs op X dat hij niet op de hoogte was van dergelijke regelingen en dat het bedrijf nooit het aandelenkapitaal van iemand had teruggevorderd. Altman zei ook dat de clausule zou worden verwijderd, waardoor medewerkers vrij zouden zijn om zich uit te spreken.
Veranderingen in veiligheidsbeheer
OpenAI heeft ook onlangs zijn aanpak van veiligheidsbeheer veranderd. Vorige maand werd een onderzoeksgroep van OpenAI die verantwoordelijk was voor het beoordelen en tegengaan van de langetermijnrisico's van de krachtigere AI-modellen van het bedrijf, effectief ontbonden nadat verschillende prominente figuren vertrokken en de resterende leden van het team werden opgenomen in andere groepen. Een paar weken later kondigde het bedrijf aan dat het een Veiligheids- en Beveiligingscommissie had opgericht, geleid door Altman en andere bestuursleden.
Reacties van betrokkenen
De ondertekenaars van de brief zijn onder andere mensen die werkten aan veiligheid en governance bij OpenAI, huidige medewerkers die anoniem hebben getekend, en onderzoekers die momenteel werken bij concurrerende AI-bedrijven. De brief werd ook onderschreven door verschillende bekende AI-onderzoekers, waaronder Geoffrey Hinton en Yoshua Bengio, die beiden de Turing Award wonnen voor baanbrekend AI-onderzoek, en Stuart Russell, een toonaangevende expert op het gebied van AI-veiligheid.
Voormalige medewerkers die de brief hebben ondertekend zijn onder andere William Saunders, Carroll Wainwright en Daniel Ziegler, die allemaal werkten aan AI-veiligheid bij OpenAI. "Het grote publiek onderschat momenteel de snelheid waarmee deze technologie zich ontwikkelt," zegt Jacob Hilton, een onderzoeker die eerder werkte aan reinforcement learning bij OpenAI en het bedrijf meer dan een jaar geleden verliet om een nieuwe onderzoeksopportuniteit na te streven. Hilton zegt dat hoewel bedrijven zoals OpenAI zich committeren aan het veilig bouwen van AI, er weinig toezicht is om ervoor te zorgen dat dit daadwerkelijk gebeurt.
"De bescherming die we vragen, is bedoeld om van toepassing te zijn op alle vooraanstaande AI-bedrijven, niet alleen OpenAI," zegt hij. "Ik vertrok omdat ik het vertrouwen verloor dat OpenAI zich verantwoordelijk zou gedragen," zegt Daniel Kokotajlo, een onderzoeker die eerder werkte aan AI-governance bij OpenAI. "Er zijn dingen gebeurd die ik denk dat openbaar hadden moeten worden gemaakt," voegt hij eraan toe, zonder specifieke details te geven. Kokotajlo zegt dat het voorstel van de brief voor meer transparantie zou zorgen, en hij gelooft dat er een goede kans is dat OpenAI en anderen hun beleid zullen hervormen gezien de negatieve reactie op het nieuws over geheimhoudingsverklaringen. Hij zegt ook dat AI zich met zorgwekkende snelheid ontwikkelt. "De inzet zal de komende jaren veel, veel, veel hoger worden," zegt hij, "althans dat geloof ik."
Bekijk onze uitgelichte artikelen
Laat je inspireren door onze uitgelichte artikelen.