PZuid-Korea is begonnen met een poging tot regulering van kunstmatige intelligentie en heeft wat wordt aangekondigd als de meest alomvattende reeks wetten waar dan ook ter wereld die een model voor andere landen zou kunnen blijken te zijn, maar de nieuwe wetgeving heeft al te maken gekregen met tegenslag.
De wetten, die bedrijven zouden dwingen om door AI gegenereerde inhoud te labelen, zijn bekritiseerd door lokale tech-startups, die zeggen dat ze te ver gaan, en maatschappelijke organisaties, die zeggen dat ze niet ver genoeg gaan.
De AI-grondwet, die vorige week donderdag in werking trad, komt daar middenin te staan groeiende mondiale onrust over kunstmatig gecreëerde media en geautomatiseerde besluitvorming regeringen hebben moeite om bij te blijven met snel voortschrijdende technologieën.
De wet zal bedrijven die AI-diensten leveren, dwingen om:
-
Voeg onzichtbare digitale watermerken toe voor duidelijk kunstmatige uitvoer, zoals tekenfilms of illustraties. Voor realistische deepfakes zijn zichtbare labels vereist.
-
“High-impact AI”, inclusief systemen die daarvoor worden gebruikt medische diagnosegoedkeuringen voor werkgelegenheid en leningen, zullen exploitanten verplichten risicobeoordelingen uit te voeren en te documenteren hoe beslissingen worden genomen. Als een mens de uiteindelijke beslissing neemt, kan het systeem buiten deze categorie vallen.
-
Extreem krachtige AI-modellen zullen veiligheidsrapporten vereisen, maar de drempel is zo hoog gelegd dat ambtenaren erkennen dat momenteel geen enkel model wereldwijd hieraan voldoet.
Bedrijven die de regels overtreden, riskeren boetes tot 30 miljoen won (15.000 pond), maar de regering heeft een uitstelperiode van minstens een jaar beloofd voordat er sancties worden opgelegd.
Aangekondigd als een “eerste ter wereld” die volledig door een land moet worden gehandhaafd, staat de wetgeving centraal in de ambitie van Zuid-Korea om naast de VS en China een van de drie grootste AI-machten ter wereld te worden. Overheidsfunctionarissen beweren dat de wet voor 80-90% gericht is op het bevorderen van de industrie in plaats van deze te beperken.
Alice Oh, hoogleraar informatica aan het Korea Advanced Institute of Science and Technology (KAIST), zei dat de wet weliswaar niet perfect was, maar wel bedoeld was om te evolueren zonder innovatie te belemmeren. Echter een onderzoek In december ontdekte de Startup Alliance dat 98% van de AI-startups niet voorbereid waren op naleving. De medevoorzitter, Lim Jung-wook, zei dat de frustratie wijdverbreid was. “Er is een beetje woede”, zei hij. “Waarom moeten wij de eersten zijn die dit doen?”
Bedrijven moeten zelf beslissen of hun systemen in aanmerking komen als AI met hoge impact, een proces dat volgens critici langdurig is en onzekerheid schept.
Ze waarschuwen ook voor een onevenwicht in de concurrentieverhoudingen: alle Koreaanse bedrijven worden geconfronteerd met regulering, ongeacht hun omvang, terwijl alleen buitenlandse bedrijven die aan bepaalde drempels voldoen – zoals Google en OpenAI – hieraan moeten voldoen.
De drang naar regulering speelt zich af tegen een uniek geladen binnenlandse achtergrond, waardoor maatschappelijke groeperingen zich zorgen maken dat de wetgeving niet ver genoeg gaat.
Zuid-Koreaanse rekeningen voor 53% van alle slachtoffers van deepfake-pornografie wereldwijd, volgens een rapport uit 2023 van Security Hero, een in de VS gevestigd bedrijf voor identiteitsbescherming. In augustus 2024 een onderzoek onthulde enorme netwerken van Telegram-chatrooms creëer en verspreid door AI gegenereerde seksuele beelden van vrouwen en meisjes die waarschuwen het schandaal dat zou later uitbarsten rond de Grok-chatbot van Elon Musk.
De oorsprong van de wet dateert echter van vóór deze crisis, toen het eerste AI-gerelateerde wetsvoorstel in juli 2020 aan het parlement werd gepresenteerd. De wet liep herhaaldelijk vast, deels als gevolg van bepalingen die ervan werden beschuldigd de belangen van de industrie voorrang te geven boven de bescherming van burgers.
Maatschappelijke organisaties beweren dat de nieuwe wetgeving beperkte bescherming biedt aan mensen die schade ondervinden van AI-systemen.
Vier organisaties, waaronder Minbyun, een collectief van mensenrechtenadvocaten, brachten de dag na de invoering ervan een gezamenlijke verklaring uit, waarin ze betoogden dat de wet vrijwel geen bepalingen bevatte om burgers te beschermen tegen AI-risico’s.
De groepen merkten op dat hoewel de wet voorzag in de bescherming van ‘gebruikers’, deze gebruikers ziekenhuizen, financiële bedrijven en openbare instellingen waren die AI-systemen gebruiken, en geen individuen die door AI werden getroffen. De wet introduceerde geen verboden AI-systemen, betoogden zij, en uitzonderingen voor ‘menselijke betrokkenheid’ creëerden aanzienlijke mazen in de wet.
De mensenrechtencommissie van het land hebben bekritiseerd het handhavingsdecreet wegens gebrek aan duidelijke definities van AI met een hoge impact, waarbij wordt opgemerkt dat degenen die het meest waarschijnlijk met schendingen van de rechten te maken krijgen, zich nog steeds in blinde vlekken op het gebied van de regelgeving bevinden.
In een verklaring zei het ministerie van Wetenschap en ICT dat het verwachtte dat de wet “de rechtsonzekerheid zou wegnemen” en “een gezond en veilig binnenlands AI-ecosysteem” zou opbouwen, eraan toevoegend dat het de regels zou blijven verduidelijken door middel van herziene richtlijnen.
Experts zeggen dat Zuid-Korea bewust een ander pad heeft gekozen dan andere rechtsgebieden.
In tegenstelling tot het strikte, op risico’s gebaseerde regelgevingsmodel van de EU, de grotendeels sectorspecifieke, marktgestuurde benaderingen van de VS en Groot-Brittannië, of de Chinese combinatie van door de staat geleid industriebeleid en gedetailleerde dienstspecifieke regelgeving, heeft Zuid-Korea gekozen voor een flexibeler, op principes gebaseerd raamwerk, zegt Melissa Hyesun Yoon, hoogleraar rechten aan de Hanyang Universiteit, gespecialiseerd in AI-governance.
Die aanpak concentreert zich op wat Yoon omschrijft als ‘op vertrouwen gebaseerde promotie en regulering’.
“Het Koreaanse raamwerk zal dienen als een nuttig referentiepunt in de mondiale discussies over AI-governance”, zei ze.


