In 2023 verschijnt het literaire sciencefictiontijdschrift Clarkesworld gestopt met accepteren nieuwe berichten omdat er zoveel zijn gegenereerd door kunstmatige intelligentie. Voor zover de redactie kon zien, voerden veel inzenders de gedetailleerde verhaalrichtlijnen van het tijdschrift in een AI in en dienden de resultaten in. En ze waren niet de enigen. Andere fictietijdschriften hebben dat ook meldde een hoog aantal van door AI gegenereerde inzendingen.
Dit is slechts één voorbeeld van een alomtegenwoordige trend. Een oud systeem vertrouwde op de moeilijkheid van typen en cognitie om het volume te beperken. Generatieve AI overweldigt het systeem omdat de mensen aan de ontvangende kant het niet bij kunnen houden.
Dit gebeurt overal. Kranten worden overspoeld met gegenereerde AI brieven aan de redactiezoals ze zijn academische tijdschriften. Wetgevers worden overspoeld met door AI gegenereerde informatie constituerende opmerkingen. Rechtbanken over de hele wereld worden overspoeld met gegenereerde AI toepassingenvooral door mensen die zichzelf vertegenwoordigen. AI-conferenties zijn dat wel overstroomd met door AI gegenereerde onderzoeksartikelen. Sociale media is overstroomd met De plaag van AI. IN muziek, open source-software, onderwijs, onderzoeksjournalistiekEn werkgelegenheidhet is hetzelfde verhaal.
Net als de eerste reactie van Clarkesworld sloten sommige van deze instellingen hun indieningsprocedures af. Anderen hebben de aanval van AI-input beantwoord met een defensieve reactie, vaak met een compenserend gebruik van AI. Academisch peer-recensenten maken steeds meer gebruik van AI om papers te evalueren die mogelijk door AI zijn gegenereerd. Socialemediaplatforms spelen hierop in AI-moderator. Rechtssystemen gebruiken AI om triage en proces procesvolumes vervangen door AI. Werkgevers wenden zich tot AI-hulpmiddelen om sollicitaties van kandidaten te beoordelen. Docenten gebruiken AI niet alleen voor rang papieren En examens afnemenmaar als één feedback hulpmiddel voor studenten.
Dit zijn allemaal wapenwedlopen: een snelle, vijandige iteratie om een gemeenschappelijke technologie voor tegengestelde doeleinden toe te passen. Veel van deze wapenwedlopen hebben duidelijk schadelijke gevolgen. De samenleving lijdt eronder als de rechtbanken verstopt raken met frivole, door AI gegenereerde zaken. Er is ook schade als de gevestigde maatstaven voor academische prestaties – publicaties en citaten – terechtkomen bij de onderzoekers die het meest bereid zijn om op frauduleuze wijze door AI geschreven brieven en papers in te dienen, in plaats van degenen wier ideeën de meeste impact hebben. De angst bestaat dat frauduleus gedrag, mogelijk gemaakt door AI, uiteindelijk de systemen en instellingen waar de samenleving op vertrouwt, zal ondermijnen.
Voordelen van AI
Toch hebben sommige van deze AI-wapenwedlopen verrassende verborgen voordelen, en de hoop is dat in ieder geval sommige instellingen in staat zullen zijn om te veranderen op manieren die ze sterker maken.
De wetenschap lijkt dankzij AI sterker te worden, maar stuit op een probleem als de AI fouten maakt. Neem het voorbeeld van frivoolDoor AI gegenereerde fraseringfiltering voor wetenschappelijke artikelen.
Een wetenschapper die een AI gebruikt om een academisch artikel te schrijven, kan een goede zaak zijn als hij zorgvuldig en met openheid wordt gebruikt. AI wordt steeds meer een primair hulpmiddel in wetenschappelijk onderzoek: voor het beoordelen van literatuur, programmeren en voor het coderen en analyseren van gegevens. En voor velen is het een cruciale ondersteuning geworden voor expressie en wetenschappelijke communicatie. Pre-AI, beter gefinancierde onderzoekers zouden mensen kunnen inhuren om hen te helpen bij het schrijven van hun academische papers. Voor veel schrijvers wier primaire taal niet het Engels is, werkgelegenheid dit soort hulp is duur geweest noodzaak. AI geeft het aan iedereen.
In fictie veroorzaken frauduleus ingediende, door AI gegenereerde werken schade, zowel voor de menselijke auteurs die nu met toenemende concurrentie te maken krijgen, als voor de lezers die zich mogelijk bedrogen voelen nadat ze onbewust het werk van een machine hebben gelezen. Sommige bedrijven verwelkomen echter door AI ondersteunde inzendingen met de juiste openbaarmaking en onder specifieke richtlijnen, waarbij zij gebruik maken van AI om deze te beoordelen op basis van criteria als originaliteit, geschiktheid en kwaliteit.
Anderen kunnen door AI gegenereerd werk afwijzen, maar daar zullen kosten aan verbonden zijn. Het is onwaarschijnlijk dat een menselijke redacteur of technologie het vermogen kan behouden om mensen van typen te scheiden. In plaats daarvan moeten bedrijven die uitsluitend door mensen willen publiceren de inzendingen beperken tot een groep auteurs waarvan zij vertrouwen dat ze geen AI zullen gebruiken. Als dit beleid transparant is, kunnen lezers het formaat kiezen dat zij verkiezen en met plezier lezen bij een of beide soorten verkooppunten.
We zien ook geen probleem als een werkzoekende AI gebruikt om zijn cv op te poetsen of betere sollicitatiebrieven te schrijven: de rijken en bevoorrechten hebben lange tijd toegang gehad tot menselijke hulp voor deze dingen. Maar het overschrijdt de grens wanneer AI’s eraan gewend zijn leugen over identiteit en ervaring, of om bedriegen op sollicitatiegesprekken.
Op dezelfde manier vereist een democratie dat haar burgers hun mening kunnen uiten aan hun vertegenwoordigers of aan elkaar via een medium zoals de krant. De rijken en machtigen kunnen al lang schrijvers inhuren om hun ideeën om te zetten in meeslepend proza, en AI’s die deze hulp aan meer mensen bieden, zijn naar onze mening een goede zaak. Dit is waar AI-fouten en vooroordelen schadelijk kunnen zijn. Burgers gebruiken AI mogelijk voor meer dan alleen een tijdbesparende kortere weg; het kan hun kennis en vaardigheden vergroten, en uitspraken genereren over historische, juridische of politieke factoren waarvan redelijkerwijs niet kan worden verwacht dat ze deze zelfstandig kunnen controleren.
De huidige commerciële AI-tekstdetectoren zijn verre van waterdicht.
Fraudeboosters
Wat we niet willen is dat lobbyisten AI gebruiken in kunstgrascampagnes, meerdere brieven schrijven en deze doorgeven als individuele meningen. Dit is er ook één ouder probleem dat AI steeds erger wordt.
Wat hier de positieve punten van de negatieve scheidt, is niet een inherent aspect van de technologie; het is de machtsdynamiek. Dezelfde technologie die de inspanning vermindert die nodig is voor een burger om zijn ervaringen met zijn wetgever te delen, zorgt er ook voor dat bedrijfsbelangen het publiek op grote schaal kunnen vervormen. De eerste is een machtsbalancerende toepassing van kunstmatige intelligentie die de participatieve democratie verbetert; dit laatste is een machtsconcentrerende toepassing die deze bedreigt.
Over het algemeen zijn wij van mening dat schrijf- en cognitieve hulp, die al lang beschikbaar was voor de rijken en machtigen, voor iedereen beschikbaar zou moeten zijn. +Het probleem komt wanneer AI’s fraude gemakkelijker maken. Elke reactie moet een evenwicht vinden tussen het omarmen van de nieuwe democratisering van de toegang en het voorkomen van fraude.
Er is geen manier om deze technologie uit te schakelen. Zeer capabele AI’s zijn overal verkrijgbaar en kunnen op een laptop draaien. Ethische richtlijnen en duidelijke professionele grenzen kunnen helpen – voor degenen die te goeder trouw handelen. Maar er zal nooit een manier zijn om academische schrijvers, werkzoekenden of burgers ervan te weerhouden deze instrumenten te gebruiken, hetzij als legitieme hulp, hetzij om fraude te plegen. Dit betekent meer reacties, meer brieven, meer sollicitaties, meer berichten.
Het probleem is dat degene die aan de ontvangende kant van deze AI-gedreven stortvloed staat, het toegenomen volume niet aankan. Wat kan helpen is het ontwikkelen van hulpmiddelen voor kunstmatige intelligentie die instellingen en de samenleving ten goede komen en tegelijkertijd fraude beperken. En dat kan betekenen dat we het gebruik van AI-ondersteuning in deze vijandige systemen moeten omarmen, ook al zal de defensieve AI nooit de overhand krijgen.
Schade in evenwicht brengen met voordelen
De sciencefictiongemeenschap worstelt sinds 2023 met kunstmatige intelligentie. Clarkesworld heropende uiteindelijk de inzendingen, beweringen dat het een passende manier heeft om menselijke en door AI geschreven verhalen te scheiden. Niemand weet hoe lang en hoe goed het zal blijven werken.
De wapenwedloop gaat door. Er is geen eenvoudige manier om te bepalen of de potentiële voordelen van AI opwegen tegen de nadelen, nu of in de toekomst. Maar als samenleving kunnen we de balans tussen de schade die ze veroorzaakt en de kansen die ze biedt beïnvloeden terwijl we door het veranderende technologische landschap navigeren.
Bruce Schneier is adjunct-docent openbaar beleid bij Harvard Kennedyschool.
Nathan Sanders is aangesloten bij het Berkman Klein Center for Internet & Society op Harvard Universiteit.
Dit artikel is opnieuw gepubliceerd van Het gesprek onder een Creative Commons-licentie. Lezen origineel artikel.



