31/03/2023 - “We call on all AI-labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4”, zo klinkt de oproep van de nonprofit Future of Life Insitute in een open brief die inmiddels door een aantal vooraanstaande AI- en techdenkers is ondertekend, zoals Stuart Russel, Elon Musk en Yuval Noah Harari. Er lijkt weer reuring te zijn in het onstuimige AI-landschap.

Oproep pauze

Het Future of Life Institute (FLI) heeft op 29 maart opgeroepen tot de directe pauze van het trainen van AI-systemen die krachtiger zijn dan GPT-4. Aanleiding hiervoor is de vrees voor de potentiële risico’s van ‘Giant AI Experiments’ voor mens en samenleving. In de open brief wordt beschreven hoe AI-labs in een “out-of-control race” zijn om AI-systemen te ontwikkelen en in te zetten die niemand meer begrijpt of enigszins kan controleren. De pauze van zes maanden zou kans bieden aan experts en ontwikkelaars om gezamenlijk veiligheidsprotocollen voor verantwoorde AI-ontwikkeling samen te stellen, te laten controleren door onafhankelijke externe deskundigen en toe te passen.

Open brief

Er lijkt in de afgelopen periode een groeiende oppositie ontstaan tegen grote AI-aanbieders, waar ethische assessments en evaluaties niet of pas plaatsvinden wanneer het product al op de markt is. De open brief is een nieuwe impuls aan het al verhitte debat over grote AI-systemen, zoals het befaamde Chat-GPT.  In de brief wordt gerefereerd naar AI-producten die in steeds grotere mate concurreren met mensen bij algemene taken, zoals het schrijven van teksten. Het FLI wil een rem op de ontwikkeling van AI-systemen die, aldus de schrijvers, mensen uiteindelijk zullen vervangen. In plaats daarvan, beargumenteren ze dat grote AI-systemen alleen ontwikkeld mogen worden als er zekerheid is dat hun effecten positief zullen zijn en de risico’s beheersbaar. De brief is inmiddels ondertekend door onder andere AI-onderzoekers Stuart Russell, Yoshua Bengio, Apple co-founder Steve Wozniak, Homo Deus schrijver Yuval Noah Harari en ondernemer Elon Musk.

Nuance

Critici vragen zich af of deze brief de juiste focus kiest. Allereerst redeneert de brief voornamelijk vanuit een narratief van angst, waarin wordt gesuggereerd dat de mens onmiddellijk in actie moet komen om te voorkomen dat AI de controle overneemt. Dit leidt af van meer genuanceerde en constructieve discussies over verantwoorde implementaties van AI die een grotere meerwaarde hebben. Daarnaast beperkt de open brief zich alleen tot AI die al in ontwikkeling is en krachtiger is dan GPT-4. Daarmee wordt er niet gekeken naar de schade en de risico’s van al bestaande AI-systemen, zoals bias en misinformatie. Bovendien ligt het gevaar van AI vaak zowel in de technologie zelf als in de manier waarop deze wordt geïmplementeerd. Tenslotte, de termijn van zes maanden die wordt voorgesteld lijkt ook onrealistisch om de gestelde doelen te behalen, en er wordt voorbij gegaan aan wetgeving zoals de AI-act die al langere tijd in ontwikkeling is. Het lijkt alsof de boodschap van het FLI aansluiting vindt op een voorstel voor een nieuw artikel in de AI Act.

AI Act

Op 14 maart presenteerde de Europese co-rapporteurs Tudorache en Benifei een eerste draft van een nieuw artikel voor de AI Act over general purpose AI (GPAI). Hierin stellen zij voor om de vereisten van high-risk AI ook toe te passen op GPAI, vanwege het potentieel voor significante schade die deze systemen kunnen veroorzaken.  Voorbeelden van dergelijke GPAI-systemen zijn de bekende large language models, zoals ChatGPT en Stable Diffusion, waar FLI ook op wijst. Er bestaat duidelijk veel belangstelling en bezorgdheid over de implicaties en mogelijke risico's van deze systemen, en het is duidelijk dat er meer discussie en regelgeving nodig is om ervoor te zorgen dat ze op een verantwoorde manier worden gebruikt. Deze kwestie lijkt de gemoederen hoog te houden, zowel in Brussel als in Silicon Valley.

Wilt u meer weten over de verantwoorde inzet van AI en Responsible AI governance, kom dan op 16 juni a.s. naar het Actualiteitencongres AI toe dat Considerati samen met Outvie organiseert. Op dit congres krijgt u een deepdive AI, leert u over de kansen en risico's van AI, algoritmes en hoe u AI verantwoord kunt toepassen.

Bestel uw ticket en gebruik onze code: 70940_Considerati. Deze code kunt u op het einde bij het bestellen van uw tickets toevoegen bij het onderdeel: Waardebon.

Lauren Challis Consultant Responsible AI

Meer weten?

Wilt u meer weten over bovenstaand? Neem dan gerust contact met ons op.