Home Nieuws Privacy in een ‘vissenkommaatschappij’

Privacy in een ‘vissenkommaatschappij’

24
0
Privacy in een ‘vissenkommaatschappij’

IIn het tijdperk van kunstmatige intelligentie (AI) is technologie een tweesnijdend zwaard waarin gebruikers worstelen met de afweging tussen gemak en privacy. Terwijl India een normatief privacykader heeft met betrekking tot Puttaswamy vonnis (2017); Information Technology Act, 2000 en de bijbehorende richtlijnen voor facilitators; en de Digital Personal Data Protection Act, 2023, en regelgeving blijft de realiteit van privacy ondoorzichtig.

We leven nu in een vissenkommaatschappij waar we ‘schade’ meten door een kortzichtige lens van privacy en waardigheid in plaats van door onduidelijkheid. Zoals Meredith Broussard opmerkt in haar boek Kunstmatige onintelligentieDe overmatige afhankelijkheid van de samenleving van technologie zorgt ervoor dat we slecht voorbereid zijn op de systemen die we hebben gebouwd. Dit stelt individuen niet alleen bloot aan het risico van datalekken, maar duwt hen ook in de vergetelheid, vooral in het geval van niet-consensueel Intiem Beeldmisbruik (NCII), waarbij algoritmen diep nep-pornografische beelden genereren zonder dat iemand er medeweten of controle van heeft. Het reguleren van dergelijke aanvallen is een dringende juridische en politieke noodzaak. Het conventionele raamwerk voor de aanpak van dergelijke misstanden is ontoereikend. Traditionele benaderingen beschrijven de risico’s van dergelijk toezicht vaak als verlies van privacy, terwijl het in werkelijkheid om veel meer dingen gaat: angst, chronische angst om in de gaten te worden gehouden, het beschuldigen van het slachtoffer en schaamte, maatschappelijk stigma, stagnatie in de carrière, permanent verlies van autonomie en lichamelijke integriteit.

Wetten zijn niet genoeg

Verrassend genoeg zijn er, ondanks het feit dat cybercriminaliteit toeneemt, geen hedendaagse gegevens over NCII beschikbaar. Gegevens van het National Crime Records Bureau (NCRB) plaatsen alle cybercriminaliteit in één categorie zonder enige gedetailleerde classificatie van specifieke misdrijven. Op 3 oktober 2025 hebben we een aanvraag voor het recht op informatie ingediend om informatie te verkrijgen over het aantal geregistreerde gevallen in het voorgaande jaar, specifiek met betrekking tot cyberpesten en cybervoyeurisme, samen met de uitsplitsing naar geslacht van de slachtoffers. Na meer dan een maand antwoordde het ministerie dat ‘wet en orde’ en ‘politie’ onder de staatslijst vallen en dat daarom de respectieve deelstaatregeringen de meest geschikte autoriteit zouden zijn om dergelijke informatie te verstrekken.

Hieruit blijkt dat louter wettelijke bepalingen niet voldoende zijn om de realiteit van onlinemisbruik aan te pakken. Beschikbaarheid, bewustzijn en maatschappelijke acceptatie van deze wetten spelen een even cruciale rol bij het bepalen van de effectiviteit ervan. Een aanzienlijk deel van de jonge vrouwen weet niet wat misdrijven als voyeurisme of deepfake-porno inhouden. Het gebrek aan digitale vaardigheden wordt verergerd door een diepgeworteld sociaal stigma, schaamte en schuldangst, die slachtoffers er vaak van weerhouden aangifte te doen. In extreme gevallen heeft dit sommige overlevenden ertoe aangezet zichzelf te beschadigen.

Gaat verder dan een SOP

Op 11 november 2025 heeft het Ministerie van Elektronica en Informatietechnologie Standard Operating Procedures (SOP’s) uitgevaardigd om de verspreiding van NCII te beteugelen. Deze richtlijnen schrijven voor dat dergelijke inhoud binnen 24 uur na melding moet worden verwijderd en proberen de “digitale waardigheid” en privacy van vrouwen te beschermen door meerdere platforms voor klachten aan te bieden. Dit is een welkome en langverwachte stap. Een SOP is echter slechts het startpunt. De doeltreffendheid ervan hangt af van de ondersteuning door krachtige programma’s voor capaciteitsopbouw, overleg met belanghebbenden en versterking van de handhavingsinstanties.

Een belangrijke beperking ligt in het ontbreken van een genderneutraal raamwerk. Uit onderzoek blijkt dat transgenders, vooral transvrouwen, onevenredig vaak het doelwit zijn van op deepfake gebaseerde intimidatie. Toch zwijgt de SOP over transgenderslachtoffers en gaat voorbij aan de erkenning door het Hooggerechtshof van transgenders als het ‘derde geslacht’ dat recht heeft op gelijke rechten. Bovendien stelt het geen duidelijke verantwoordingsmechanismen vast, definieert het de omvang van de straf niet en formuleert het geen specifieke regels voor het genereren, verspreiden en volgen van deepfake. Het hebben van een speciale wet inzake NCII is dus de noodzaak van dit moment – ​​een wet die verder gaat dan de traditionele focus op actus reus en mens rea en expliciete plichten benadrukt voor platforms, AI-ontwikkelaars en tussenpersonen, specifieker en veelomvattender dan de Information Technology (Intermediary Guidelines and Digital Media Ethics) Amendment Rule, 2025.

Met de proliferatie van door AI gegenereerde deepfakes, die voornamelijk worden gebruikt om slachtoffers (meestal vrouwen) lastig te vallen, te schande te maken en het zwijgen op te leggen, wordt privacy steeds meer gevormd en bedreigd door technologische mogelijkheden in plaats van door wettelijke bescherming. Het gebrek aan procedurele garanties, traceerbaarheidsnormen en onafhankelijke toezichtsmechanismen hebben ervoor gezorgd dat dergelijke misdaden jarenlang niet gemeld en onbestraft bleven, ook al escaleerden de frequentie en de ernst ervan. Deze uitdagingen roepen een belangrijke vraag op: is een SOP voldoende?

Gebrek aan bewustzijn van rechten of zelfs van wat juridisch gezien ‘voyeurisme’ of ‘wraakporno’ inhoudt, onvoldoende sensibilisering van politieambtenaren, het beschuldigen van slachtoffers en een tekortschietende cyberonderzoekscapaciteit verzwakken de impact van bestaande wetten verder. Zoals NGO’s en onderzoeksstudies benadrukken, worden in heel India dagelijks duizenden zaken ingediend, maar het aantal veroordelingen blijft onevenredig laag. Hoewel de SOP een cruciale eerste stap is, vereist een betekenisvol antwoord op NCII en deepfake-schade in deze context genderneutrale hervormingen, politietraining, capaciteitsopbouw, platformverantwoording, AI-specifieke waarborgen en sterkere, op het slachtoffer gerichte juridische mechanismen.

Aastha Tiwari, assistent-professor (rechten) en PhD-fellow, Maharashtra National Law University Mumbai; Shweta Bhuyan, onderzoeksmedewerker (rechten) en PhD-fellow, Maharashtra National Law University Mumbai

Uitgegeven – 3 december 2025 om 02:03 uur IST

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in