Welkom bij AI Gedecodeerd, Snel bedrijf’s wekelijkse nieuwsbrief met het belangrijkste nieuws ter wereld AI. Je kunt tekenen om deze nieuwsbrief wekelijks per e-mail te ontvangen hier.
Is de Altman-brandbom slechts het begin van extreem doomergeweld?
Op 10 april iemand gooide een molotovcocktail in het huis van OpenAI-CEO Sam Altman in San Francisco. De vermeende aanvaller, de 20-jarige Daniel Moreno-Gama, stopte daar niet. Vervolgens ging hij naar het OpenAI-hoofdkwartier en vertelde de bewakers daar dat hij van plan was het gebouw en iedereen binnenin in brand te steken. Twee dagen later zou iemand twee schoten hebben afgevuurd vanuit een auto die langs het huis van Altman reed, maar OpenAI zei dat de gebeurtenis geen verband hield met de brandbombardementen en niet op Altman was gericht.
Het brandbombardement is een extreme reactie op de snelle ontwikkeling van AI systemen van de afgelopen jaren, en tot de vrees dat dergelijke systemen niet in het beste belang van de mensen zullen handelen. Moreno-Gama zei hetzelfde in het ‘manifest’ dat de politie in zijn bezit vond. Hij bespreekt het ‘vermeende risico dat AI voor de mensheid met zich meebrengt’ en ‘onze naderende uitsterving’. Hij voegt een persoonlijke brief toe aan Altman waarin hij de CEO aanspoort om te veranderen. Hij pleit er ook voor om de CEO’s van andere AI-bedrijven en hun investeerders te vermoorden.
Altman heeft vele malen gesproken over de gevaren van AI-systemen en tegelijkertijd OpenAI ertoe aanzetten steeds intelligentere modellen te ontwikkelen en uit te brengen. Sommigen hebben gesuggereerd dat wanneer Altman het heeft over de gevaren van AI, het eigenlijk een soort bescheiden opschepperij is over de modellen van OpenAI (“zo intelligent dat ze gevaarlijk zijn”).
Het is waar dat AI-laboratoria met elk nieuw model grote vooruitgang blijven boeken op het gebied van intelligentie. AI-coderingstools versnellen de ontwikkeling, waardoor nieuwe releases en sprongen in mogelijkheden vaker voorkomen. Ondertussen is het publiek zich steeds meer zorgen gaan maken, zelfs ongerust, over de risico’s van AI-systemen, die kunnen variëren van banenverlies tot door AI ondersteunde cybercriminaliteit en het uitsterven van de mensheid. De transformatie van het bedrijfsleven en het leven door AI is nog maar net begonnen. Modellen zullen angstaanjagend slim worden. Nu AI-laboratoria onder druk staan om rendement te leveren aan hun investeerders, is er bijna geen kans om op “pauze” te drukken. Er is weinig reden om aan te nemen dat incidenten zoals de Altman-brandbommen niet meer zullen voorkomen.
Sarah Federman, hoogleraar conflictoplossing aan de Universiteit van San Diego, zegt dat mensen vaak hun toevlucht nemen tot geweld als ze zich machteloos voelen om zich effectief uit te spreken tegen een vermeend onrecht. “We beginnen het breekpunt te zien”, zegt Federman. “Er is al deze angst en je kunt nergens heen.” Ze is ook van mening dat terwijl AI-laboratoria racen om het beste model vrij te geven, zorgen over ethiek terzijde zijn geschoven.
Ze heeft een punt. AI-bedrijven hebben veel tijd besteed aan het overleggen met wetgevers en het uitleggen hoe hun systemen werken en waarom het reguleren van modelontwikkeling contraproductief zou kunnen zijn. Velen in Washington DC waren gecharmeerd van Altman, die volgens hen rechtlijnig, serieus en technisch bekwaam was. Maar deze bedrijven besteden veel minder tijd aan rechtstreekse gesprekken met het publiek. Ze houden geen gemeentehuizen en organiseren geen debatten over AI-ethiek op Fox News of CNN. Het is waarschijnlijker dat ze ‘instituten’ oprichten om de toekomstige effecten van AI op de samenleving te bestuderen.
En de kwestie van de afstemming van AI kan mensen als Moreno-Gama inherent tot extreem gedrag aanzetten. Er is nu voldoende AI-doeminhoud online om sommige mensen in een heel diep konijnenhol te sturen, waar ze de talloze factoren uit het oog verliezen die zullen bepalen hoe mensen met bovenmenselijke AI leven. Ze zien misschien alleen het verhaal ‘als je het bouwt, gaan we dood’ en voelen zich dan wanhopig om in actie te komen. Ze kunnen zelfs geholpen worden door de licht sycofantische chatbot van hun keuze.
OpenAI brengt op beveiliging gericht GPT-5.4-Cyber-model uit om te concurreren met Anthropics Mythos
Een week nadat Anthropic zijn controversiële nieuwe focus op cyberbeveiliging had aangekondigd Claude Mythos-modelOpenAI heeft een soortgelijk gericht model uitgebracht genaamd GPT-5.4-Cyber. Het bedrijf zegt dat “Cyber” een gespecialiseerde versie is van zijn nieuwste algemene AI-model, GPT-5.4, ontworpen om cyberbeveiligingsprofessionals te helpen softwarekwetsbaarheden te detecteren en analyseren.
zegt Open AI GPT-5.4-Cyber zijn getraind voor defensieve gebruiksscenario’s, zoals analyse en reverse-engineering van potentiële cyberdreigingen.
Natuurlijk kan een AI-tool die bedreigingen kan vinden en reverse-engineeren ook offensief worden gebruikt door kwaadwillende actoren om kwetsbaarheden in doelsystemen te vinden en exploits te creëren. OpenAI zegt dus dat de toegang tot GPT-5.4-Cyber in eerste instantie beperkt zal blijven tot gecontroleerde organisaties, onderzoekers en beveiligingsleveranciers.
Anthropic deed iets soortgelijks met zijn Mythos-model, waardoor toegang werd verleend aan een groep bekende cyberbeveiligings- en infrastructuurbedrijven die het zullen gebruiken om kwetsbaarheden in wijdverbreide software te vinden en te patchen. Dit, zo luidt de gedachte, zal defensieve cybersecurity-inspanningen een voorsprong geven tegen hackers die uiteindelijk toegang zullen krijgen tot modellen op Mythos-niveau. Anthropic heeft geen onmiddellijke plannen om zijn Mythos-model uit te brengen.
OpenAI zei dat de uitrol een verschuiving weerspiegelt naar een bredere maar gecontroleerde uitrol van krachtige AI-systemen die de samenwerking met beveiligingsprofessionals benadrukken en tegelijkertijd potentieel misbruik proberen te beperken.
xAI ligt opnieuw onder vuur vanwege ‘geseksualiseerde’ chatbot voor kinderen
De Grok-chatbot van xAI blijft seksueel diepgaande nepbeelden genereren laatste onderzoek van NBC News gevonden, waardoor het AI-bedrijf van Elon Musk van koers veranderde. xAI had eerder beloofd dergelijke inhoud te beperken. Daarnaast ontdekte het National Center for Sexual Exploitation (NCOSE) dat Groks kindgerichte chatbot, ‘Good Rudi’, seksueel expliciete gesprekken kan voeren. NCOSE moedigt xAI aan om de toegang tot de chatbot te beperken.
NBC News zegt dat het de afgelopen maand tientallen door AI gegenereerde seksuele afbeeldingen en video’s van echte mensen heeft gevonden die op Musk’s X (voorheen Twitter) sociale media-app zijn geplaatst. NBC zegt dat de foto’s vrouwen tonen van wie de gelijkenissen door de AI-chatbot zijn bewerkt om ze in meer onthullende kleding te stoppen, zoals handdoeken, sportbeha’s, nauwsluitende Spider-Woman-outfits of konijnenpakken. Veel van de vrouwen waren vrouwelijke popsterren of actrices.
NCOSE-onderzoekers ontdekten dat Grok’s Good Rudi-chatbot seksueel expliciete verhalen kan vertellen. “Zodra ik een gesprek met Rudi begon, begon hij het gesprek door een grappig jeugdverhaal te willen delen”, aldus een onderzoeker. “Na wat aandringen kreeg ik eindelijk de metgezel om alle beveiligingsprogramma’s te omzeilen.” De chatbot vertelde vervolgens een sexy verhaal over twee jonge volwassenen met grafische beschrijvingen van seksuele ontmoetingen, waaronder de personages die ‘in seksuele posities kwamen en seksuele penetratie’.
Meer AI-dekking van Snel bedrijf:
- Een AI-agent opende een winkel in San Francisco. Toen vergat het het personeel
- AI herschrijft de regels van biologische experimenten. De veiligheidsregels zijn niet inbegrepen
- Nieuwe bevindingen uit deze Gallup-enquête laten zien hoe Amerikanen AI gebruiken voor gezondheidsadvies
- Ik verloor $ 23 door te investeren met ChatGPT, maar Jason Alexander zong tenminste Happy Birthday voor me
Wilt u exclusieve rapportage en trendanalyse over technologie, bedrijfsinnovatie, de toekomst van werk en design? Schrijf je in voor Snel bedrijf Premie.



