Wanneer overheden dit gaan implementeren Kunstmatige intelligentie (AI) instrumenten in het openbaar bestuur, de nationale veiligheid en beleidsvorming, kwesties als veilig gebruik en verantwoording stonden centraal. De kwestie kwam in de VS onder de aandacht nadat rapporten waren onthuld een geschil tussen het Pentagon en het AI-bedrijf Anthropicnaad geweigerd om de waarborgen af te schaffen die waren ingevoerd om massasurveillance en het gebruik van autonome wapens te voorkomen. Het incident onderstreepte een diepere spanning tussen regeringen die AI-systemen willen implementeren en de bedrijven die deze controleren.
Als staten nauwer samenwerken met AI-bedrijven, wie controleert dan uiteindelijk de systemen die ons besturen? Isha Suri En Raman Jit Singh Chima bespreek het onderwerp in een gesprek onder leiding van Arena Arora.
Welk soort staatscapaciteit zou kunstmatige intelligentie daadwerkelijk kunnen versterken? En waar moeten regeringen voorzichtig mee zijn als ze daarop vertrouwen?
Raman Jit Singh Chima: Het hangt af van het probleem dat een regering probeert op te lossen en met wie zij te maken heeft. AI kan soms transformerende effecten hebben, zoals het verbeteren van de toegang tot data of het mogelijk maken van betere analyses, maar wordt vaak geïmplementeerd zonder duidelijkheid over het probleem, de beschikbare data of de kosten die ermee gemoeid zijn. Er zijn ook gebieden met een hoog risico, zoals gezichtsherkenning, bewaking en bepaalde toepassingen in de gezondheidszorg, waar misbruik tot aanzienlijke schade kan leiden. In dergelijke gevallen moet het beginsel “geen schade berokkenen” van toepassing zijn, en in sommige gevallen kan een regelrecht verbod gerechtvaardigd zijn.
Commentaar | AI-aangedreven belastingbeheer in India en zijn uitdagingen
Isha Suri: AI-systemen werken doorgaans het beste in goed gedefinieerde gebruiksscenario’s. Tijdens de COVID-19-pandemie konden beeldvormingshulpmiddelen bijvoorbeeld onderscheid maken tussen verschillende soorten longinfecties, omdat het probleem duidelijk omschreven was en de parameters bekend waren.
Regeringen moeten beginnen met het definiëren van het doel van de implementatie van kunstmatige intelligentie. Die duidelijkheid ontbreekt vaak. Voordat ze een systeem adopteren, moeten ze zich afvragen of kunstmatige intelligentie nodig is, of er minder ingrijpende alternatieven bestaan en wat de risico’s zijn. Een noodzaak- en evenredigheidstoets is doorslaggevend. AI mag niet zomaar worden toegepast omdat het bestaat.
Als het delen van meer gegevens met AI-systemen publieke diensten sneller en efficiënter maakt, waarom zouden mensen zich dan druk maken over privacy? Welke schade ligt er op tafel?
Isha Suri: We moeten ons afvragen wat ‘efficiëntie’ betekent en voor wie. Het bewijs voor productiviteitswinst is nog steeds zwak. In veel gevallen vertalen efficiëntievereisten zich in arbeidssubstitutie. Er is ook sprake van een gebrek aan transparantie. Gegevens die voor één doel worden verzameld, kunnen elders worden gebruikt. Welzijnsgegevens kunnen worden gebruikt voor toezicht of het weigeren van uitkeringen.
Lees ook | Mondiale samenwerking is essentieel om AI-vooroordelen en -risico’s aan te pakken, zegt premier
Het idee dat burgers het goed vinden om gegevens te delen veronderstelt geïnformeerde toestemming, wat vaak niet het geval is. Veel mensen begrijpen niet helemaal hoe hun gegevens worden gebruikt. In landen als India is wat vaak wordt omschreven als cultureel comfort met minder privacy feitelijk een gevolg van lage digitale geletterdheid.
Lees ook | De regering van Karnataka vormt een commissie voor verantwoordelijke AI
Individuen kunnen dus beslissingen nemen zonder volledige informatie, terwijl de gevolgen op de lange termijn zich voordoen. Dit is de reden waarom de staat schade moet anticiperen en veiligheidsmaatregelen moet treffen in de ontwerpfase, en niet na de implementatie.
Raman Jit Singh Chima: Het idee dat voor betere AI meer persoonlijke gegevens nodig zijn, klopt niet. Het komt bepaalde commerciële actoren ten goede, maar technisch gezien is het niet noodzakelijk. Meer data is niet altijd beter. Het kan inefficiënt, riskant en voordelig zijn, vooral voor bedrijven die afhankelijk zijn van grootschalige data-extractie en een zware computerinfrastructuur. Er zijn alternatieven. Kleinere modellen gebruiken bijvoorbeeld beperkte gegevens en kunnen duidelijkere resultaten opleveren. Er zijn ook AI-systemen op het apparaat die geen constante gegevensoverdracht naar grote datacenters vereisen. We moeten de veronderstelling ter discussie stellen dat het overdragen van gegevens de prijs is voor betere dienstverlening.
AI-bedrijven zeggen dat ze toegang nodig hebben tot grote openbare datasets om betere systemen te kunnen bouwen. Moeten overheden deze datasets behandelen als strategische nationale activa, of kunnen ze worden gedeeld met particuliere bedrijven om de ontwikkeling te versnellen?
Raman Jit Singh Chima: We moeten erg op onze hoede zijn voor het idee dat data iets is waarmee geld kan worden verdiend. Het openstellen van gegevens voor particuliere actoren brengt risico’s met zich mee voor de privacy, de veiligheid en de soevereiniteit. Het herhaalt ook fouten uit het verleden waarbij publieke systemen werden overgedragen zonder adequate waarborgen.
Isha Suri: Het framen van gegevens als een nationaal of economisch bezit is problematisch omdat het de aandacht afleidt van de aard ervan als een fundamenteel recht dat verband houdt met privacy. Er zijn ook kwesties van toestemming. Burgers kunnen gegevens aanleveren voor één doel, maar niet voor gebruik in commerciële samenwerkingsverbanden. We moeten ons ook afvragen wie de vraag naar toegang tot grote datasets aanstuurt. Vaak zijn dit particuliere bedrijven met duidelijke financiële prikkels.
Uiteindelijk riskeren we een situatie waarin publieke data en publiek geld de private extractie van waarde mogelijk maken met beperkte verantwoordelijkheid. Dit maakt het van cruciaal belang voor overheden om een stap terug te doen en te beoordelen wie van dergelijke regelingen profiteert en of deze in overeenstemming zijn met het algemeen belang.
Overheden hebben altijd samengewerkt met de particuliere sector. Moeten we AI in dat partnerschap anders behandelen of vrezen?
Raman Jit Singh Chima: We moeten leren van eerdere digitale infrastructuurprojecten. Systemen mogen niet eerst worden geïmplementeerd en later worden gereguleerd. Ook bestaat het risico dat technologie een doel op zichzelf wordt. Overheden kunnen systemen uitbreiden, niet omdat ze de resultaten verbeteren, maar om eerdere investeringen te rechtvaardigen. Grootse partnerschappen kunnen overheden ook gevangen houden in dure en inflexibele regelingen.
Commentaar | AI en de nationale veiligheidscalculus
Isha Suri: Projecten als Aadhaar en DigiYatra moeten worden gezien als waarschuwende voorbeelden. Er kan niet lichtvaardig worden omgegaan met trade-offs op het gebied van sociale uitkeringen. Zelfs kleine uitsluitingspercentages kunnen ernstige gevolgen hebben. Er is ook een gebrek aan verantwoordelijkheid wanneer de publieke infrastructuur wordt beheerd door hybride of particuliere entiteiten.
Als andere regeringen AI gaan adopteren en het onvermijdelijk mondiaal gaat, moet India het dan ook adopteren?
Raman Jit Singh Chima: Regeringen moeten de mondiale trends niet blindelings volgen. AI mag alleen worden gebruikt als het het algemeen belang en democratische waarden bevordert. Beleidsmakers moeten zich concentreren op praktische kwesties zoals gegevensbescherming, aanbestedingen en marktconcentratie.
Uitgelegd | Hoe zal kunstmatige intelligentie in India worden gereguleerd?
Isha Suri: Het idee van onvermijdelijkheid wordt overschat en wordt vaak ingegeven door verhalen uit de sector. Regeringen moeten hun eigen doelstellingen bepalen in plaats van te reageren op de angst om iets te missen.
Als andere regeringen kunstmatige intelligentie vloeiender gebruiken, dreigt India dan achterop te raken?
Raman Jit Singh Chima: Als we ons zorgen maken over kunstmatige algemene intelligentie, moet de nadruk liggen op het opbouwen van fundamentele wetenschappelijke capaciteit.
Het huidige verhaal van de sector suggereert dat het ondersteunen van grote AI-bedrijven en hun infrastructuur de juiste keuze is. Het kan feitelijk een afleiding zijn van het opbouwen van echte capaciteiten. Kijkend naar het verleden van India hebben investeringen in de nucleaire wetenschap grote programma’s op het gebied van de ruimtevaart en de nucleaire ontwikkeling mogelijk gemaakt. Een soortgelijke aanpak is hier nodig als we superieure technologische capaciteiten willen.
Lees ook | De nieuwe AI-governancerichtlijnen van India dringen aan op een hands-off aanpak
Isha Suri: We moeten ons ook afvragen wat het betekent om “achterop te raken”. AI is niet alleen een applicatie, het is een volledige stapel, inclusief berekeningen, gegevens en modellen. Als binnenlandse systemen zijn gebouwd op infrastructuur of partnerschappen die worden gecontroleerd door grote mondiale bedrijven, bouwen we geen echte inheemse capaciteiten op. We leggen eenvoudigweg een laag bovenop bestaande afhankelijkheden. Dit creëert het risico van lock-in en langdurige afhankelijkheid van buitenlandse technologiemonopolies. Het roept ook zorgen op over soevereiniteit en controle. Tegelijkertijd kan een groot deel van de hype rond kunstmatige algemene intelligentie en superintelligentie de aandacht afleiden van de hedendaagse schade, waaronder arbeidseffecten, milieukosten en machtsconcentratie.
Dus waar blijven we?
Raman Jit Singh Chima: Wees voorzichtig met hoe en waar AI binnen de overheid wordt geïmplementeerd. Focus op duidelijke gebruiksscenario’s, vermijd onnodige afhankelijkheid van grote particuliere spelers en geef prioriteit aan het publieke belang, de veiligheid en de duurzaamheid op de lange termijn.
Lees ook | De IIT-M-studie pleit voor een participatieve benadering van AI-governance
Isha Suri: Regeringen moeten hun doelstellingen duidelijk definiëren voordat ze welke technologie dan ook adopteren. Vraag of kunstmatige intelligentie nodig is en of de risico’s in verhouding staan tot de voordelen.
Isha Suri is onderzoeksleider bij het Center for Internet and Society. Raman Jit Singh Chima is beleidsdirecteur Azië-Pacific en Senior International Counsel bij Access Now, een non-profitorganisatie die zich inzet voor de verdediging van digitale rechten

