Home Nieuws Uw ontwikkelaars gebruiken AI al lokaal: waarom gevolgtrekkingen op apparaten de nieuwe...

Uw ontwikkelaars gebruiken AI al lokaal: waarom gevolgtrekkingen op apparaten de nieuwe blinde vlek van de CISO zijn

4
0
Uw ontwikkelaars gebruiken AI al lokaal: waarom gevolgtrekkingen op apparaten de nieuwe blinde vlek van de CISO zijn

De afgelopen achttien maanden was het CISO-draaiboek voor generatieve AI relatief eenvoudig: beheer de browser.

Beveiligingsteam verscherpt CASB-beleid (Cloud Access Security Broker), blokkeert of bewaakt verkeer naar bekende AI-eindpunten en leidt het gebruik via gesanctioneerde gateways. Het bedrijfsmodel was duidelijk: als gevoelige gegevens het netwerk verlaten voor een externe API-aanroep, kunnen we deze observeren, loggen en tegenhouden. Maar dat model begint uiteen te vallen.

Een stille hardwareverschuiving duwt het gebruik van grote taalmodellen (LLM) van het netwerk naar het eindpunt. Noem het Shadow AI 2.0 of het ‘bring your own model’-tijdperk (BYOM): werknemers die vaardige modellen lokaal op laptops draaien, offline, zonder API-oproepen en zonder duidelijke netwerkhandtekening. Het gesprek over governance wordt nog steeds omschreven als ‘data-exfiltratie naar de cloud’, maar het meer directe bedrijfsrisico is steeds vaker ‘onbeheerde gevolgtrekking binnen het apparaat’.

Wanneer gevolgtrekking lokaal plaatsvindt, ziet traditionele preventie van gegevensverlies (DLP) de interactie niet. En als de beveiliging het niet kan zien, kan het er ook geen controle over hebben.

Waarom lokale gevolgtrekking ineens handig is

Twee jaar geleden was het runnen van een nuttige LLM op een laptop een nichestunt. Tegenwoordig is het routine voor technische teams.

Drie dingen vielen samen:

  • Consumentenversnellers worden serieus: Op een MacBook Pro met een totaal geheugen van 64 GB kunnen gekwantificeerde modellen uit de 70B-klasse vaak met bruikbare snelheden worden uitgevoerd (met praktische beperkingen op de contextlengte). Wat ooit multi-GPU-servers vereiste, is nu mogelijk op een high-end laptop voor veel echte workflows.

  • Kwantisering werd mainstream: Het is nu gemakkelijk om modellen te comprimeren tot kleinere, snellere formaten die in draagbaar geheugen passen, vaak met aanvaardbare kwaliteitscompromissen voor veel taken.

  • De verdeling is wrijvingsloos: Open modellen zijn slechts één commando verwijderd, en het tool-ecosysteem maakt “downloaden → uitvoeren → chatten” triviaal.

Het resultaat: Een ingenieur kan een modelartefact van meerdere GB ophalen, Wi-Fi uitschakelen en gevoelige workflows lokaal uitvoeren, broncode beoordelen, documentsamenvattingen opstellen, klantcommunicatie opstellen en zelfs onderzoeksanalyse uitvoeren op gereguleerde datasets. Geen uitgaande pakketten, geen proxylogboeken, geen cloudaudittrail.

Van één perspectief van netwerkbeveiligingdie activiteit lijkt misschien niet te onderscheiden van “er is niets gebeurd”.

Het risico is niet alleen dat gegevens het bedrijf verlaten

Als de gegevens de laptop niet verlaten, waarom zou een CISO zich er dan druk over maken?

Omdat de dominante risico’s verschuiven van exfiltratie naar integriteit, herkomst en compliance. In de praktijk creëert lokale gevolgtrekking drie soorten blinde vlekken die de meeste bedrijven niet hebben geoperationaliseerd.

1. Code- en besluitvervuiling (integriteitsrisico)

Lokale modellen worden vaak gebruikt omdat ze snel en privé zijn en ‘geen goedkeuring vereist’. Het nadeel is dat ze vaak niet onder controle zijn voor de bedrijfsomgeving.

Een veelvoorkomend scenario: Een senior ontwikkelaar downloadt een door de community afgestemd codeermodel omdat het goed scoort. Ze voegen interne authenticatielogica, betalingsstromen of infrastructuurscripts toe om het ‘op te schonen’. Het model retourneert uitvoer die er competent uitziet, compileert en doorstaat unit-tests, maar verslechtert op subtiele wijze de beveiligingssituatie (zwakke invoervalidatie, onveilige standaardinstellingen, broze gelijktijdigheidsveranderingen, afhankelijkheidsselectie is intern niet toegestaan). De ingenieur voert de wijziging door.

Als deze interactie offline plaatsvond, heb je mogelijk helemaal geen gegevens over de AI die het codepad beïnvloedt. En als je later op incidenten reageert, onderzoek je het symptoom (een kwetsbaarheid) zonder inzicht in de hoofdoorzaak (ongecontroleerd modelgebruik).

2. Licentieverlening en IP-blootstelling (compliancerisico)

Bij veel krachtige modellen worden licenties meegeleverd beperkingen voor commercieel gebruiktoeschrijvingsvereisten, reikwijdtelimieten of verplichtingen die mogelijk inconsistent zijn met de eigen productontwikkeling. Wanneer werknemers modellen lokaal uitvoeren, kan dit gebruik het normale inkoop- en juridische beoordelingsproces van de organisatie omzeilen.

Als een team een ​​niet-commercieel model gebruikt om productiecode, documentatie of productgedrag te genereren, kan het bedrijf risico’s erven die later aan het licht komen tijdens due diligence bij fusies en overnames, klantveiligheidsbeoordelingen of rechtszaken. Het lastige zijn niet alleen de vergunningsvoorwaarden, maar ook het gebrek aan voorraad en traceerbaarheid. Zonder een beheerde modelhub of gebruiksrecord kunt u mogelijk niet bewijzen wat waar is gebruikt.

3. Modelleer blootstelling aan de toeleveringsketen (oorsprongsrisico)

Lokale gevolgtrekkingen veranderen ook het probleem van de softwaretoeleveringsketen. Eindpunten beginnen grote modelartefacten en de toolchains eromheen te verzamelen: ownloaders, converters, runtimes, plug-ins, UI-shells en Python-pakketten.

Er is hier een kritische technische nuance: het bestandsformaat is van belang. Terwijl nieuwere formaten zoals Beveiligingen is ontworpen om het uitvoeren van willekeurige code te voorkomen, ouder Op basis van augurk PyTorch-bestanden kan eenvoudigweg kwaadaardige ladingen uitvoeren wanneer ze worden geladen. Als uw ontwikkelaars onbeheerde controlepunten uit Hugging Face of andere opslagplaatsen halen, downloaden ze niet alleen gegevens: ze downloaden mogelijk een exploit.

Beveiligingsteams hebben decennialang geleerd hoe ze onbekende uitvoerbare bestanden als vijandig kunnen behandelen. BYOM vereist dat deze mentaliteit wordt uitgebreid naar modelartefacten en de omringende runtime-stack. De grootste organisatorische kloof van vandaag is dat de meeste bedrijven geen equivalent hebben van een lijst met softwareonderdelen voor modellen: Herkomst, hashes, toegestane bronnen, scannen en levenscyclusbeheer.

Remediërende BYOM: behandel modelgewichten als softwareartefacten

U kunt lokale gevolgtrekkingen niet oplossen door URL’s te blokkeren. U hebt eindpuntbewuste controles nodig en een ontwikkelaarservaring die de veilige weg de gemakkelijke weg maakt.

Hier zijn drie praktische manieren:

1. Verplaats de besturing omlaag naar het eindpunt

Netwerk-DLP en CASB zijn nog steeds van belang voor cloudgebruik, maar zijn niet voldoende voor BYOM. Begin met het behandelen van lokaal modelgebruik als een probleem met eindpuntbeheer door naar specifieke signalen te zoeken:

  • Inventarisatie en detectie: Scannen op hifi-indicatoren zoals .gguf-bestanden die groter zijn dan 2 GB, processen zoals bel.cpp of Ollama, en lokale luisteraars met elkaar gemeen standaardpoort 11434.

  • Proces- en runtime-bewustzijn: Controleer op herhaald hoog GPU/neural processing unit (NPU)-gebruik van niet-vertrouwde runtimes of onbekende lokale inferentieservers.

  • Eenheidsbeleid: Gebruik beheer van mobiele apparaten (MDM) en eindpuntdetectie en -respons (EDR) beleid om de installatie van niet-goedgekeurde runtimes te controleren en basisverharding op technische apparaten af ​​te dwingen. Het gaat er niet om experimenten te bestraffen. Het is bedoeld om de zichtbaarheid te herwinnen.

2. Zorg voor een verharde weg: een interne, samengestelde modelhub

Schaduw-AI is vaak het gevolg van wrijving. Goedgekeurde tools zijn te beperkend, te algemeen of te traag om goed te keuren. Een betere aanpak is om een ​​samengestelde interne catalogus aan te bieden met:

  • Goedgekeurde modellen voor algemene taken (coderen, samenvatten, classificeren)

  • Geverifieerde licenties en gebruikershandleiding

  • Vaste versies met hashes (voorrang geven aan veiligere formaten zoals Safetensors)

  • Duidelijke documentatie van veilig lokaal gebruik, inclusief waar gevoelige gegevens wel en niet zijn toegestaan. Als je wilt dat ontwikkelaars stoppen met opschonen, geef ze dan iets beters.

3. Update de beleidstaal: “Cloudservices” is niet langer voldoende

Het meest acceptabele gebruiksbeleid gaat over SaaS- en cloudtools. BYOM vereist beleid dat expliciet betrekking heeft op:

  • Download en voer modelartefacten uit op bedrijfseindpunten

  • Aanvaardbare bronnen

  • Nalevingsvereisten voor licenties

  • Regels voor het gebruik van modellen met gevoelige gegevens

  • Lokale inferentietools Volharding en logboekverwachtingen Dit hoeft niet hardhandig te zijn. Het moet ondubbelzinnig zijn.

De omtrek verandert terug naar de eenheid

Tien jaar lang hebben we de beveiligingscontroles ‘omhoog’ naar de cloud verplaatst. Lokale gevolgtrekking trekt een betekenisvol deel van de AI-activiteit terug naar het eindpunt.

5 signalen dat schaduw-AI naar eindpunten is verplaatst:

  • Belangrijkste modelartefacten: Onverklaarbaar opslaggebruik van .gguf- of .pt-bestanden.

  • Lokale inferentieservers: Verwerkt het luisteren op poorten zoals 11434 (Ollama).

  • GPU-gebruikspatronen: Pieken in GPU-gebruik terwijl u offline bent of een VPN-verbinding hebt verbroken.

  • Ontbrekende modelvoorraad: Onvermogen om code-uitvoer toe te wijzen aan specifieke modelversies.

  • Onduidelijkheid over licenties: Aanwezigheid van “niet-commerciële” modelweegschalen in productiegebouwen.

Shadow AI 2.0 is geen hypothetische toekomst, het is een voorspelbaar gevolg van snelle hardware, distributiegemak en de vraag van ontwikkelaars. CISO’s die zich alleen op netwerkcontrole concentreren, zullen missen wat er gebeurt op het silicium dat op de bureaus van werknemers ligt.

De volgende fase van AI-beheer gaat minder over het blokkeren van sites en meer over het controleren van artefacten, herkomst en beleid op het eindpunt zonder de productiviteit te ondermijnen.

Jayachander Reddy Kandakatla is een Senior MLOps-ingenieur.

Welkom bij de VentureBeat-community!

In ons gastpostprogramma delen technische experts inzichten en bieden ze neutrale, onbevooroordeelde diepgaande inzichten in AI, data-infrastructuur, cyberbeveiliging en andere geavanceerde technologieën die de toekomst van het bedrijfsleven vormgeven.

Lees meer uit ons gastpostprogramma – en bekijk ons richtlijnen als u geïnteresseerd bent om uw eigen artikel bij te dragen!

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in