- Deskundigen zijn van mening dat DeepSeek-R1 gevaarlijk onveilige code produceert wanneer politieke uitingen in prompts worden opgenomen
- De helft van de politiek gevoelige aanwijzingen zorgt ervoor dat DeepSeek-R1 weigert code te genereren
- Hardgecodeerde geheimen en onveilige invoerverwerking komen vaak aan het licht tijdens politiek geladen aanwijzingen
Toen het in januari 2025 werd uitgebracht, DeepSeek-R1, een Chinees groottaalmodel (LLM) zorgde voor razernij en is sindsdien algemeen aanvaard als codeerassistent.
Echter, onafhankelijke tests van CrowdStrike betogen dat de output van het model aanzienlijk kan variëren, afhankelijk van ogenschijnlijk irrelevante contextuele modifiers.
Het team testte 50 codeertaken in meerdere beveiligingscategorieën met 121 triggerwoordconfiguraties, waarbij elke prompt vijf keer werd uitgevoerd, voor een totaal van 30.250 tests, en de antwoorden werden geëvalueerd aan de hand van een kwetsbaarheidsscore van 1 (veilig) tot 5 (kritiek kwetsbaar).
Politiek gevoelige onderwerpen corrumperen de output
Uit het rapport blijkt dat wanneer politieke of gevoelige termen als Falun Gong, Oeigoeren of Tibet in prompts werden opgenomen, DeepSeek-R1 code produceerde met ernstige beveiligingsproblemen.
Deze omvatten hardgecodeerde geheimen, onveilige verwerking van gebruikersinvoer en in sommige gevallen volledig ongeldige code.
De onderzoekers beweren dat deze politiek gevoelige triggers de kans op onveilige output met 50% kunnen vergroten in vergelijking met baseline-prompts zonder dergelijke woorden.
In experimenten met complexere aanwijzingen produceerde DeepSeek-R1 functionele applicaties met aanmeldingsformulieren, databases en beheerderspanelen.
Deze applicaties misten echter basis sessiebeheer en authenticatie, waardoor gevoelige gebruikersgegevens zichtbaar bleven. Bij herhaalde tests bleek tot 35% van de implementaties zwakke of ontbrekende wachtwoordhashing te bevatten.
Eenvoudigere vragen, zoals verzoeken om websites van voetbalfanclubs, zorgden voor minder ernstige problemen.
CrowdStrike beweert daarom dat politiek gevoelige triggers de codebeveiliging onevenredig zwaar beïnvloeden.
Het model toonde ook een inherente kill-switch aan: in bijna de helft van de gevallen weigerde DeepSeek-R1 code te genereren voor bepaalde politiek gevoelige aanwijzingen nadat hij eerst een reactie had gepland.
Uit onderzoek van de redeneersporen bleek dat het model intern een technisch plan opleverde, maar uiteindelijk de hulp weigerde.
De onderzoekers zijn van mening dat dit de censuur weerspiegelt die in het model is ingebouwd om te voldoen aan de Chinese regelgeving, en merkten op dat de politieke en ethische afstemming van het model rechtstreeks van invloed kan zijn op de betrouwbaarheid van de gegenereerde code.
Voor politiek gevoelige onderwerpen hebben LLM’s over het algemeen de neiging om ideeën van de reguliere media aan te dragen, maar dit kan in schril contrast staan met andere betrouwbare nieuwsmedia.
DeepSeek-R1 blijft een capabel codeermodel, maar deze experimenten laten dit zien AI-hulpmiddelenwaaronder ChatGPT en anderen, kunnen verborgen risico’s introduceren in bedrijfsomgevingen.
Organisaties die afhankelijk zijn van door LLM gegenereerde code moeten grondige interne tests uitvoeren voordat ze worden geïmplementeerd.
Ook beveiligingslagen zoals firewall En antivirusprogramma blijft cruciaal omdat het model onvoorspelbare of kwetsbare resultaten kan opleveren.
Vooroordelen die in de modelgewichten zijn ingebouwd, creëren een nieuw supply chain-risico dat van invloed kan zijn op de codekwaliteit en de algehele systeembeveiliging.
Volg TechRadar op Google Nieuws En voeg ons toe als voorkeursbron om ons deskundig nieuws, recensies en meningen in uw feeds te krijgen. Klik dan zeker op de knop Volgen!
En jij kunt dat natuurlijk ook Volg TechRadar op TikTok voor nieuws, recensies, video-unboxings en ontvang regelmatig updates van ons WhatsAppen Ook.


