Home Nieuws AI herschrijft de regels voor biologische experimenten, maar de veiligheidsvoorschriften komen niet...

AI herschrijft de regels voor biologische experimenten, maar de veiligheidsvoorschriften komen niet mee

1
0
AI herschrijft de regels voor biologische experimenten, maar de veiligheidsvoorschriften komen niet mee

Kunstmatige intelligentie leert snel biologische experimenten autonoom te ontwerpen en uit te voeren, maar de systemen die deze capaciteiten moeten beheersen, hebben moeite om het bij te houden.

AI bedrijf Open AI en biotechbedrijf Ginkgo Bioworks maakten in februari 2026 bekend dat OpenAI’s vlaggenschipmodel GPT-5 onafhankelijk ontworpen en uitgevoerd 36.000 biologische experimenten. Dit gebeurde via een robotwolklabeen faciliteit waar geautomatiseerde apparatuur, op afstand bestuurd door computers, experimenten uitvoert. Het AI-model suggereerde studieontwerpen en robots voerden deze uit en voerden de gegevens terug naar het model voor de volgende ronde. Mensen stelden het doel vast en de machines deden een groot deel van het werk in het laboratorium, waardoor de kosten voor het produceren van een gewenst eiwit met 40% werden verlaagd.

Dit is programmeerbare biologie: het ontwerpen van biologische componenten op een computer en deze bouwen in de fysieke wereld, waar AI de cirkel sluit.

Decennia lang trok de biologie grotendeels weg observatie versus begrip. Wetenschappers hebben de genomen van organismen gesequenced om al hun DNA te catalogiseren en leerden hoe genen coderen voor de eiwitten die de functies van het leven uitvoeren. De uitvinding van hulpmiddelen zoals CRISPR Vervolgens lieten wetenschappers dat DNA voor specifieke doeleinden bewerken, zoals het uitschakelen van een gen dat verband houdt met een ziekte. AI versnelt nu een derde fase waarin computers zowel biologische systemen kunnen ontwerpen als deze snel kunnen testen.

Het proces lijkt op minder traditioneel bankwerk in een laboratorium eerder techniek: ontwerpen, bouwen, testen, leren en herhalen. Waar een traditioneel experiment een enkele hypothese zou kunnen testen, onderzoekt AI-aangedreven programmeerbare biologie duizenden ontwerpvariaties parallel, waarbij de manier wordt nagebootst waarop een ingenieur een prototype verfijnt.

Zoals één datawetenschapper wie bestudeert genomica en bioveiligheidIk onderzoek hoe AI biologisch onderzoek een nieuwe vorm geeft en welke waarborgen daarvoor nodig zijn. De huidige waarborgen en regelgeving hebben geen gelijke tred gehouden met deze mogelijkheden, en de kloof tussen wat AI in de biologie kan doen en wat controlesystemen bereid zijn aan te pakken wordt steeds groter.

Wat AI mogelijk maakt

Het duidelijkste voorbeeld van hoe onderzoekers AI gebruiken om onderzoek te automatiseren is AI-versneld eiwitontwerp.

Eiwitten zijn de moleculaire machines die de meeste functies in levende cellen vervullen. Het ontwerpen van nieuwe vergt traditioneel jaren van vallen en opstaan, omdat zelfs kleine veranderingen in de sequentie van een eiwit de vorm en functie ervan op onvoorspelbare manieren kunnen veranderen.

EiwittaalmodellenDit zijn AI-systemen die zijn getraind op miljoenen natuurlijke eiwitsequenties en die snel kunnen voorspellen hoe mutaties het gedrag van een eiwit zullen veranderen of nieuwe eiwitten ontwerpen. Deze AI-modellen zijn aan het ontwerpen potentiële nieuwe medicijnen En de ontwikkeling van vaccins versnellen.

Gecombineerd met geautomatiseerde laboratoriadeze modellen creëren nauwe lussen van experimenteren en herzien, waarbij duizenden variaties in dagen worden getest in plaats van in de maanden of jaren die een menselijk team nodig zou hebben.

Snellere eiwittechnologie zou snellere reacties op nieuwe infecties en goedkopere medicijnen kunnen betekenen.

Het dual-use-probleem

Onderzoekers hebben hun bezorgdheid geuit over het feit dat dezelfde AI-tools kunnen worden misbruikt, een uitdaging die bekend staat als probleem van tweeërlei gebruik: Technologieën die voor nuttige doeleinden zijn ontwikkeld, kunnen ook worden hergebruikt om schade te veroorzaken.

Onderzoekers hebben bijvoorbeeld ontdekt dat AI-modellen geïntegreerd met geautomatiseerde laboratoria kan optimaliseren hoe goed een virus zich verspreidtzelfs zonder speciale training. Onderzoekers hebben een risicoscoringsinstrument ontwikkeld om te evalueren hoe AI de mogelijkheden van een virus zou kunnen veranderen, zoals het veranderen van welke soort het infecteert of het helpen het immuunsysteem te ontwijken.

De huidige AI-modellen zijn in staat gebruikers door de technische stappen te loodsen haal levende virussen terug uit synthetisch DNA. Onderzoekers hebben vastgesteld dat kunstmatige intelligentie barrières zou kunnen verlagen in verschillende stadia van het ontwikkelingsproces van een biowapen, en dat het huidige toezicht niet adequaat adresseert dit risico.

Risico van bio-AI

Ervaren wetenschappers zijn dat al met behulp van AI naar niveau En biologische experimenten ontwerpen. De vraag of AI mensen met een beperkte biologieopleiding kan helpen gevaarlijk laboratoriumwerk uit te voeren, is het onderwerp van actief onderzoek.

Twee recente onderzoeken kwamen tot verschillende conclusies.

Uit een onderzoek van AI-bedrijf Scale AI en de non-profitorganisatie voor bioveiligheid SecureBio bleek dat wanneer mensen met beperkte biologie-ervaring toegang kregen tot grote taalmodellen, het type AI achter tools als ChatGPT, ze in staat waren om voltooien van bioveiligheidsgerelateerde taken zoals het debuggen van complexe virologische laboratoriumprotocollen met vier keer grotere nauwkeurigheid. Op sommige gebieden presteerden deze nieuwelingen beter dan getrainde experts. Ongeveer 90% van deze nieuwelingen meldde dat het weinig moeite kostte om de modellen risicovolle biologische informatie te laten verschaffen, zoals gedetailleerde instructies over het werken met gevaarlijke ziekteverwekkers, ondanks ingebouwde veiligheidsfilters om dergelijke resultaten te blokkeren.

Uit een onderzoek onder leiding van Active Site, een non-profitorganisatie die het gebruik van AI in de synthetische biologie bestudeert, bleek daarentegen dat AI-hulp niet leidde tot significante verschillen in het vermogen van beginners om complexe workflow om een ​​virus te produceren in een bioveiligheidslaboratorium. De door AI ondersteunde groep slaagde echter vaker in de meeste taken en voltooide sommige stappen sneller, vooral het kweken van cellen in het laboratorium.

Praktijkgericht werken in het laboratorium is van oudsher een knelpunt bij het vertalen van ontwerp naar resultaat. Zelfs een briljant studieplan is nog steeds afhankelijk van bekwame mensenhanden om uit te voeren. Het zal misschien niet zo lang duren als cloudlabs en robotautomatisering dat zullen doen goedkoper en toegankelijkerwaardoor onderzoekers door AI gegenereerde experimentele ontwerpen naar afgelegen faciliteiten kunnen sturen voor uitvoering.

Reageren op AI-gedreven biologische risico’s

AI-systemen zijn inmiddels in staat om experimenten autonoom en op schaal uit te voeren, maar de bestaande regels zijn daar niet op ontworpen. Regels voor biologisch onderzoek houden geen rekening met AI-aangedreven automatisering, en regels voor AI hebben niet specifiek betrekking op het gebruik ervan in de biologie.

In de VS had de regering-Biden uit 2023 een uitvoerend bevel uitgevaardigd over AI-beveiliging bepalingen inzake bioveiligheidmaar de regering-Trump heeft het ingetrokken. Het screenen van het synthetische DNA dat commerciële leveranciers maken om ervoor te zorgen dat het niet kan worden misbruikt om ziekteverwekkers of toxines te maken, is meestal vrijwillig. Een wetsvoorstel geïntroduceerd in 2026 om mandaat voor DNA-screening verwerkt nog geen door AI ontworpen sequenties die de huidige detectiemethoden omzeilen.

1975 Biologische Wapenconventieeen internationaal verdrag dat de productie en het gebruik van biowapens verbiedt, bevat geen bepalingen over kunstmatige intelligentie. Groot-Brittannië AI-beveiligingsinstituut en de Verenigde Staten Nationale Veiligheidscommissie voor opkomende biotechnologie hebben beide opgeroepen tot een gecoördineerde overheidsinspanning.

De beveiligingsevaluaties die AI-labs uitvoeren voordat nieuwe modellen worden uitgebracht, zijn dat vaak ondoorzichtig en ongeschikt om risico’s in de echte wereld te vangen. Onderzoekers schatten dat zelfs bescheiden verbeteringen in het vermogen van een AI-model om pathogeengerelateerde experimenten te helpen plannen, zich zouden kunnen vertalen in duizenden extra sterfgevallen als gevolg van bioterrorisme per jaar. Tijdlijnen voor wanneer deze eigenschappen kritische drempels overschrijden blijven onduidelijk.

Het Nuclear Threat Initiative heeft dat gedaan stelde een beheerd toegangskader voor voor biologische AI-instrumenten: wie een bepaald instrument kan gebruiken, afstemmen op het risiconiveau van het model in plaats van op algemene beperkingen. Het Rand Center for Artificial Intelligence, Security and Technology schetste een aantal wat de onderzoekers konden nemen om de bioveiligheid te verbeteren, inclusief verbeterde screening van DNA-synthese en evaluaties van modellen voorafgaand aan de release. Onderzoekers hebben hier ook voor gepleit biologische gegevens zelf hebben beheer nodigvooral genomische gegevens die modellen met gevaarlijke eigenschappen zouden kunnen trainen.

Sommige AI-bedrijven zijn begonnen met het vrijwillig opleggen van hun eigen veiligheidsmaatregelen. Antropisch heeft het hoogste beveiligingsniveau geactiveerd toen het medio 2025 zijn meest geavanceerde model uitbracht. Op hetzelfde moment OpenAI heeft zijn paraatheidskader bijgewerkthet herzien van de drempelwaarden voor hoeveel biologisch risico een model kan opleveren voordat aanvullende waarborgen nodig zijn. Maar dit zijn vrijwillige, bedrijfsspecifieke initiatieven. Anthropic CEO Dario Amodi schreef dat het tempo van de AI-ontwikkeling binnenkort zou kunnen toenemen de capaciteiten van elk afzonderlijk bedrijf te boven gaan om het risico van een bepaald model te beoordelen.

Bij gebruik in een goed gecontroleerde omgeving kan AI onderzoekers helpen hun onderzoeksdoelen snel te bereiken. Wat er gebeurt als diezelfde capaciteiten buiten deze controles opereren, is een vraag die het beleid nog moet beantwoorden. Als u overdreven reageert, kunnen talent en investeringen naar elders verhuizen, terwijl de technologie toch vooruitgang blijft boeken. Als u te weinig reageert, kunnen de risico’s van die technologie worden uitgebuit om echte schade aan te richten.

Stephen D. Turner is docent informatica bij Universiteit van Virginia.

Dit artikel is opnieuw gepubliceerd van Het gesprek onder een Creative Commons-licentie. Lezen origineel artikel.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in