Home Nieuws AI stelt hackers in staat anonieme sociale media-accounts te identificeren, zo blijkt...

AI stelt hackers in staat anonieme sociale media-accounts te identificeren, zo blijkt uit onderzoek | AI (kunstmatige intelligentie)

5
0
AI stelt hackers in staat anonieme sociale media-accounts te identificeren, zo blijkt uit onderzoek | AI (kunstmatige intelligentie)

AI heeft het voor kwaadwillende hackers enorm gemakkelijker gemaakt om anonieme sociale-media-accounts te identificeren, zo waarschuwt een nieuw onderzoek.

In de meeste testscenario’s zijn grote taalmodellen (LLM’s) – de technologie achter platforms zoals ChatGPT – het succesvol matchen van anonieme online gebruikers met hun werkelijke identiteit op andere platforms, op basis van de informatie die zij hebben gepost.

AI-onderzoekers Simon Lermen en Daniel Paleka zeggen dat LLM’s het kosteneffectief maken om geavanceerde privacyaanvallen uit te voeren, waardoor een “fundamentele herbeoordeling wordt gedwongen van wat als privé online kan worden beschouwd”.

In hun experiment voerden de onderzoekers anonieme accounts in een AI en lieten deze alle mogelijke informatie verzamelen. Ze gaven een hypothetisch voorbeeld van een gebruiker die vertelde over vechten op school en het uitlaten van zijn hond Biscuit door een “Dolores-park”.

In het hypothetische geval zocht de AI elders naar die details en matchte @anon_user42 met een hoge mate van vertrouwen met de bekende identiteit.

Hoewel dit voorbeeld fictief was, benadrukten de auteurs van het artikel scenario’s waarin overheden kunstmatige intelligentie gebruiken om dissidenten en activisten te monitoren die anoniem posten, of waarin hackers ‘zeer gepersonaliseerde’ oplichting kunnen lanceren.

AI-surveillance is een snel evoluerend vakgebied dat alarm zaait onder computerwetenschappers en privacy-experts. Het maakt gebruik van LLM’s om informatie over een persoon online te synthetiseren, wat voor de meeste mensen onpraktisch zou zijn om dit handmatig te doen.

Informatie over leden van het publiek die gemakkelijk online beschikbaar is, kan al “direct misbruikt” worden voor fraude, zei Lermen, inclusief spear-phishing, waarbij een hacker zich voordoet als een vertrouwde vriend om slachtoffers ertoe te brengen een kwaadaardige link in hun inbox te volgen.

Omdat de expertise die nodig is om geavanceerdere aanvallen uit te voeren nu veel lager is, hebben hackers alleen toegang nodig tot openbaar beschikbare taalmodellen en een internetverbinding.

Peter Bentley, hoogleraar computerwetenschappen aan de UCL, zei dat er zorgen zijn over het commerciële gebruik van de technologie “of en wanneer producten op de markt komen voor de-anonimisering”.

Een probleem is dat LLM’s vaak fouten maken bij het koppelen van accounts. ‘Mensen zullen worden beschuldigd van dingen die ze niet hebben gedaan’, waarschuwde Bentley.

Een andere zorg, geuit door prof. Marc Juárez, docent cyberbeveiliging aan de Universiteit van Edinburgh, is dat LLM’s openbare gegevens kunnen gebruiken buiten sociale media: ziekenhuisdossiers, opnamegegevens en diverse andere statistische publicaties kunnen niet voldoen aan de hoge standaard van anonimisering die nodig is in het tijdperk van AI.

“Het is behoorlijk alarmerend. Ik denk dat dit artikel laat zien dat we onze praktijk moeten heroverwegen”, zei Juarez.

AI is geen magisch wapen tegen online anonimiteit. Hoewel LLM’s in veel situaties documenten kunnen de-anonimiseren, is er soms niet genoeg informatie om conclusies te trekken. In veel gevallen is het aantal potentiële matches te groot om te beperken.

“Ze kunnen alleen verbinding maken tussen platforms waarop iemand op beide plaatsen consequent dezelfde informatie deelt”, zegt professor Marti Hearst van de School of Information van UC Berkeley.

Hoewel de technologie niet perfect is, vragen wetenschappers nu instellingen en individuen om opnieuw na te denken over de manier waarop ze gegevens in de AI-wereld anonimiseren.

Lermen heeft aanbevolen dat platforms als eerste stap de toegang tot gegevens beperken: het afdwingen van snelheidslimieten voor het downloaden van gebruikersgegevens, het detecteren van automatisch schrapen en het beperken van de massale export van gegevens. Maar hij merkte ook op dat individuele gebruikers grotere voorzorgsmaatregelen kunnen nemen met betrekking tot de informatie die zij online delen.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in