Home Nieuws Instructie van Meta AI-agent veroorzaakt groot gevoelig datalek bij werknemers | AI...

Instructie van Meta AI-agent veroorzaakt groot gevoelig datalek bij werknemers | AI (kunstmatige intelligentie)

1
0
Instructie van Meta AI-agent veroorzaakt groot gevoelig datalek bij werknemers | AI (kunstmatige intelligentie)

Een AI-agent gaf een ingenieur opdracht acties te ondernemen waardoor een grote hoeveelheid gevoelige gegevens van Meta aan enkele van zijn werknemers werd blootgesteld, in het nieuwste voorbeeld van AI die voor onrust zorgde bij een groot technologiebedrijf.

Het lek, dat Meta bevestigde, deed zich voor toen een medewerker op een intern forum om advies vroeg over een technisch probleem. Een AI-agent reageerde met een oplossing, die de medewerker implementeerde: hij stelde een grote hoeveelheid gevoelige gebruikers- en bedrijfsgegevens gedurende twee uur bloot aan zijn technici.

“Er zijn geen gebruikersgegevens verkeerd verwerkt”, zei een woordvoerder van Meta, waarbij hij benadrukte dat een mens ook foutief advies kan geven. Het incident, voor het eerst gerapporteerd door The Information, veroorzaakte een grote interne veiligheidswaarschuwing binnen Meta, wat volgens het bedrijf een indicatie is van hoe serieus het gegevensbescherming neemt.

Deze inbreuk is een van de vele recente spraakmakende inbreuken incidenten veroorzaakt door het toenemende gebruik van AI-agenten in Amerikaanse technologiebedrijven. Vorige maand meldde een rapport van de Financial Times dat Amazon ten minste twee storingen heeft ervaren die verband houden met de implementatie van zijn interne AI-tools.

Ruim een ​​half dozijn Amazon-werknemers later sprak met de Guardian over de lukrake poging van het bedrijf om AI in elk onderdeel van hun werk te integreren, wat volgens hen leidde tot flagrante fouten, slordige code en verminderde productiviteit.

De technologie achter al deze incidenten, agent AI, heeft zich de afgelopen maanden snel ontwikkeld. In december zorgden de ontwikkelingen in de AI-coderingstool van Anthropic, Claude Code, voor brede acceptatie lawaai over zijn vermogen om zelfstandig theaterkaartjes te boeken, persoonlijke financiën te beheren en zelfs planten te kweken.

Kort daarna kwam de opkomst van OpenClaw, een virale AI-persoonlijkheid assistent die bovenop agenten als ClaudeCode draaide, maar volledig onafhankelijk kon opereren – bijvoorbeeld door miljoenen dollars in cryptocurrency uit te wisselen of massaal e-mails van gebruikers te verwijderen – wat leidde tot felle gesprekken over de opkomst van AGI, of kunstmatige algemene intelligentie, een overkoepelende term voor AI die mensen kan vervangen voor een breed scala aan taken.

In de weken daarna hebben de aandelenmarkten gewankeld door de vrees dat AI-agenten softwarebedrijven zullen wegvreten. hervormen de economie en vervangt menselijke werknemers.

Tarek Nseir, mede-oprichter van een adviesbureau dat zich richt op de manier waarop bedrijven AI gebruiken, zei dat deze incidenten aantoonden dat Meta en Amazon zich in de ‘experimentele fasen’ bevonden van de implementatie van agent-AI.

“Ze schuwen deze dingen niet echt en doen daadwerkelijk een goede risicobeoordeling. Als je hier een junior stagiair op zet, zou je die junior stagiair nooit toegang geven tot al je kritische HR-gegevens”, zei hij.

“De kwetsbaarheid zou achteraf heel duidelijk zijn geweest voor Meta, zo niet op dit moment. En wat ik kan zeggen en zal zeggen is dat dit Meta is die op grote schaal experimenteert. Dit is Meta die stoutmoedig is.”

Jamieson O’Reilly, een beveiligingsspecialist die zich richt op het bouwen van offensieve AI, zei dat AI-agenten een bepaald soort fouten introduceerden die mensen niet maakten – en dit zou het incident bij Meta kunnen verklaren.

Een mens kent de ‘context’ van een taak – de impliciete kennis dat je bijvoorbeeld niet de bank in brand mag steken om de kamer te verwarmen, of een weinig gebruikt maar cruciaal bestand mag verwijderen, of een actie moet uitvoeren die stroomafwaarts gebruikersgegevens zou onthullen.

Voor AI-agenten is dit ingewikkelder. Ze hebben ‘contextvensters’ – een soort werkgeheugen – waarin ze instructies bevatten, maar deze vervallen, wat tot fouten leidt.

“Een menselijke ingenieur die al twee jaar ergens werkt, loopt rond met een collectief besef van wat belangrijk is, wat er om 2 uur ’s nachts kapot gaat, wat de kosten van downtime zijn, welke systemen klanten raken. Die context leeft in hen, in hun langetermijngeheugen, ook al zit het niet in hun hoofd”, zegt O’Reilly.

“De agent daarentegen heeft daar niets van, tenzij je het expliciet in de prompt plaatst, en zelfs dan begint het te vervagen, tenzij het in de trainingsgegevens staat.”

Nseir zei: “Onvermijdelijk zullen er meer fouten worden gemaakt.”

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in