‘Winstbejag gekozen boven verantwoord uitrollen’

OpenAI-ceo Sam Altman tijdens een veiligheidstop over AI vorige maand in het Verenigd Koninkrijk

NOS Nieuws

  • Nando Kasteleijn

    redacteur Tech

  • Nando Kasteleijn

    redacteur Tech

Deze week vierde OpenAI de eerste verjaardag van ChatGPT. Maar vorige maand leek het er nog even op dat de toekomst van het bedrijf op het spel stond door een grote crisis. Het legde een interne richtingenstrijd bloot waar het laatste woord nog niet over is gezegd.

Zie het als strijd tussen gas geven op het ontwikkelen van kunstmatige intelligentie (AI) of die ontwikkeling juist afremmen. “Ik denk dat er heel veel mensen geloven dat hoe sneller de technologie wordt ontwikkeld, hoe eerder we een aantal grote problemen oplossen”, zegt Jelle Prins, medeoprichter is van een AI-startup. “Dat moet je niet te veel willen vertragen.”

Wim Nuijten, directeur van het AI-instituut van de TU Eindhoven, is kritisch op wat er bij OpenAI is gebeurd. “Winstbejag lijkt het te hebben gewonnen van het verantwoord uitrollen van technologie die een zeer grote impact kan hebben.”

Slimmer dan de mens

Om te beseffen wat er gebeurde en wat de betekenis is, is allereerst belangrijk om te begrijpen wat het uiteindelijke doel is van OpenAI. Het bedrijf wil toewerken naar wat we ‘AGI’ (artificial general intelligence) noemen. Computers die slimmer zijn dan mensen zelf.

Als dat ooit bereikt wordt – daarover verschillen de meningen nogal – zou dit onze hele samenleving kunnen veranderen. Dat zou de mensheid veel goeds kunnen brengen, is de gedachte. Maar er zijn ook zorgen. Met als ultieme angst dat AI dan bepaalt wat het beste is voor ons en in theorie zelfs ervoor zou kunnen kiezen de mensheid uit te roeien.

Het kan de angst voeden dat OpenAI daadwerkelijk met iets bezig is wat potentieel een existentieel risico kan opleveren. “Gaat het de hele mensheid vernietigen? Daar ben ik niet bang voor”, reageert Antske Fokkens, hoogleraar Taaltechnologie aan de Vrije Universiteit. Ze maakt zich meer zorgen over de gevaren die er nu al zijn, zoals de verspreiding van misinformatie.

OpenAI-ceo Sam Altman, die vorige maand plots ontslagen werd, gelooft dat de positieve effecten groter zullen zijn dan de negatieve effecten. Maar daar is bij OpenAI niet iedereen het mee eens.

Het gezicht van de ‘tegenbeweging’ is Ilya Sutskever, een toonaangevende AI-onderzoeker en een van de mede-oprichters van het bedrijf. Uit een artikel van The Atlantic blijkt dat hij steeds overtuigder raakte van de kracht van de technologie die OpenAI ontwikkelt. Maar daarmee groeide ook zijn overtuiging dat de gevaren groot zijn. Hij was ook degene die namens het bestuur Altman ontsloeg, om daar vervolgens spijt van te krijgen.

Ilya Sutskever, de man die Sam Altman in eerste instantie ontsloeg en daar vervolgens spijt van had

“In dit verhaal ontbreekt een hele belangrijke derde richting”, zegt Jelle Zuidema, universitair hoofddocent explainable AI aan de Universiteit van Amsterdam. “Namelijk de groep die het niet wil hebben over het existentiële gevaar, want dat vinden ze overdreven, maar wel degelijk bezorgd is over de effecten die het nu heeft.”

Een ‘AI-doorbraak’

Daar komt nog bij dat er volop speculatie is over de vraag of OpenAI dit jaar een technologische ‘doorbraak’ heeft bereikt, wat de systemen nog veel krachtiger kan maken. Aanleiding is berichtgeving van The Information en Reuters. Het gaat hier om de doorbraak die ook wel “Q*” (uitgesproken als Q-star) wordt genoemd. Het zou onder meer in staat zijn wiskundige sommen op te lossen die andere AI-varianten te moeilijk vinden.

De veronderstelde doorbraak zou medewerkers ongerust hebben gemaakt dat er niet genoeg veiligheidswaarborgen zijn. Onderzoekers zouden het bestuur hiervoor in een brief hebben gewaarschuwd. Het wekt de suggestie dat die zorgen hebben bijgedragen aan Altmans ontslag, al meldde technieuwsbrief Platformer dat het bestuur nooit zo’n brief heeft ontvangen.

Volgens Nuijten van de TU Eindhoven zou het een doorbraak betekenen in hoe AI redeneert, iets waar al decennia aan wordt gewerkt. Al kan hij moeilijk inschatten of OpenAI daar werkelijk al is. “Het zou dan op de basis van de kennis en regels die wij hebben over de logica en de fysieke wereld bepaalde theorieën kunnen bewijzen en nieuwe uitvindingen doen.”

Zuidema merkt daarbij op dat zulke nieuwsberichten over technologische doorbraken ook een ander doel kunnen dienen, namelijk de wereld ervan overtuigen dat OpenAI verder is dan de concurrentie.

Ook strijd rond nieuwe regels

Alle drie de deskundigen beamen dat je techbedrijven niet kunt vertrouwen in het ontwikkelen van AI zonder toezicht. Er moet regelgeving komen. Daar wordt bijvoorbeeld in Europa aan gewerkt, al is dat ook een strijd op zich.

Europarlementariër Kim van Sparrentak (GroenLinks) neemt deel aan de onderhandelingen en zegt dat het spannend wordt. Duitsland, Frankrijk en Italië willen niet te strenge regels, uit angst om Europese bedrijven dwars te zitten. Van Sparrentak merkt dat er ondertussen stevig wordt gelobbyd door techbedrijven, waaronder ook OpenAI.



Bron