Toen een luchtkwaliteitsagentschap uit Zuid-Californië vorig jaar een nieuwe regel voorstelde om consumenten aan te moedigen warmtepompen te kopen in plaats van gaskachels, werd het bureau overspoeld met 20.000 reacties die zich tegen het idee verzetten – veel meer dan normaal. “Vanwege het volume en de aard van deze inzendingen had de South Coast AQMD zorgen over de authenticiteit ervan”, zegt Rainbow Yeung, een woordvoerder van de organisatie. De CEO van het bureau kreeg een e-mail waarin hij hem bedankte voor zijn ‘verzet’ tegen een regel die door zijn eigen team was opgesteld.
Om de geldigheid van de commentaren te verifiëren, nam het bureau contact op met een kleine steekproef van commentatoren – 172 mensen – om te bevestigen dat zij de e-mails inderdaad hadden verzonden. Bijna niemand reageerde. Maar van de vijf mensen die dat wel deden, zeiden er drie dat ze niets wisten van de opmerkingen die in hun eigen naam waren gemaakt. In een afzonderlijk onderzoek begon een campagnevoerder van de Sierra Club ook contact op te nemen met mensen op de lijst; de vier mensen die hij bereikte, zeiden ook dat ze geen e-mails hadden gestuurd.
De LA-tijden onlangs gemeld dat CiviClick, een bedrijf dat zichzelf factureert als aanbieder van “AI-powered advocacy tools”, had ertoe geleid dat de campagne opmerkingen van de oppositie stuurde. De klant was een public affairs-consulent met banden met de gasindustrie.
CiviKlik ontkent dat zij zonder toestemming een e-mail heeft verzonden of dat zij AI heeft gebruikt om geautomatiseerde berichten te produceren. Het Air Quality Management District onderzoekt de situatie nog; zei de CEO in a laatste bijeenkomst dat het team meer ‘agressieve’ manieren onderzocht om commentatoren te bemonsteren, omdat het geen definitieve conclusies kon trekken uit de beperkte eerste reactie.
Wat er ook is gebeurd, het wijst op een bredere vraag: als AI nu gemakkelijk mensen kan nabootsen – en als er commentaar kan worden ingediend zonder medeweten van iemand – hoe kunnen overheidsinstanties dan weten wanneer een openbaar commentaar door een burger is geschreven in plaats van door een bot?
Valse reacties zijn niet nieuw. In 2017 ontving de FCC 22 miljoen reacties tijdens het debat over netneutraliteitsregels – en ca. 18 miljoen daarvan bleken later vals te zijn. Miljoenen kwamen uit één enkele universiteitsstudent; een half miljoen kwam van Russische e-mailadressen. Na een onderzoek heeft de New Yorkse procureur-generaal Letitia James prima ‘leadgenerator’-bedrijven die gezamenlijk miljoenen echte mensen nabootsten toen ze reacties plaatsten.
AI zou het in theorie gemakkelijker kunnen maken om nepreacties te schrijven en te plaatsen die echt klinken. CiviClick zegt dat het eenvoudigweg AI gebruikt om echte mensen te helpen hun opmerkingen te personaliseren. Het platform stelt gebruikers vragen die verband houden met het probleem (bijvoorbeeld hoe een belastingverhoging hun budget zal beïnvloeden) en stelt vervolgens een e-mail op maat. (Het bedrijf gebruikt ook kunstmatige intelligentie om te voorspellen hoe waarschijnlijk het is dat iemand op een campagne zal reageren.)
CiviClick-oprichter en CEO Chazz Clevinger zegt dat hij niet kon ingaan op de details van de campagne in Zuid-Californië, maar benadrukt dat deze op zinvolle wijze de authentieke opvattingen van mensen in de regio weergeeft. “Een huiseigenaar in Riverside County die onlangs een gasoven had geïnstalleerd, schreef een ander bericht dan een huurder in Los Angeles die zich zorgen maakte over de nalevingskosten van de verhuurder”, zegt hij. Snel bedrijf. “Een aannemer uit San Bernardino County die nieuwe huizen bouwde, plaatste een ander bericht dan een gepensioneerde uit Orange County, bezorgd over de druk op het elektriciteitsnet tijdens hittegolven.” Hij beweert dat de tool mensen eenvoudigweg helpt ‘hun oprechte zorgen onder woorden te brengen’ en dat deze niet minder legitiem zijn dan vanaf het begin geschreven berichten.
De campagnevoerder van de Sierra Club heeft een andere mening. Zelfs als iemand ermee instemt dat de AI een opmerking aanpast, kan dit problematisch zijn. “Regelgevers geven voorrang aan op maat gemaakte opmerkingen, die tijd en moeite vergen om te verzenden, boven standaardbrieven of petities, waarvoor dat niet het geval is”, zegt Dylan Plummer, campagneadviseur voor de Clean Heat Campaign van de Sierra Club. “Het gebruik van AI om op maat gemaakte opmerkingen te genereren creëert de illusie van betrokken individuen die bereid zijn tijd te besteden aan het opstellen van een doordachte verklaring over een onderwerp, terwijl ze in feite op hetzelfde niveau betrokken zijn als iemand die een traditionele standaardbrief of petitie heeft ondertekend.”
De grootste uitdaging, zegt Plummer, is of sommige publieke commentaren worden toegeschreven aan mensen die er nooit iets mee te maken hebben gehad. In een ander geval in Californië begon hij mensen te bellen die opmerkingen hadden ingediend over een voorgestelde Bay Area Air District-regel. Een andere non-profitorganisatie, het Energy and Policy Institute, heeft een verzoek om openbare registers ingediend om kopieën te verkrijgen van de e-mails die zijn verzonden via een ander softwareplatform genaamd Speak4. (Speak4 weigerde te spreken; in één San Francisco-kroniek artikelzei de klant van het bedrijf, de Bay Area Council, dat noch Speak4, noch Speak4 brieven zonder toestemming heeft ingediend.)
Van de zeven mensen met wie Plummer sprak, zeiden ze alle zeven dat ze niets van de e-mail afwisten. “Sommigen zeiden zelfs dat ze niet wisten wat het Bay Area Air District was”, zegt hij. “Een vrouw met wie ik sprak, zei: ‘Waarom zou ik me ooit verzetten tegen regelgeving om schone lucht te beschermen?'”
Of reacties daadwerkelijk nep zijn, is achteraf heel lastig te bewijzen. “Ik moest tientallen nummers bellen die ik via zoekopdrachten op internet kon bereiken”, zegt Plummer. De meesten wilden niet praten. “Als ik praat, zeg ik: ‘Hallo, ik ben Dylan en ik onderzoek een mogelijk geval van identiteitsdiefstal.’ En hun eerste reactie is: ‘Oh, deze man is een totale fraudeur’, en ze hangen op.”
In een ander geval in North Carolina ontvingen provinciale commissarissen honderden e-mails ter ondersteuning van een nieuwe gaspijpleiding. Maar toen ze op sommige e-mails begonnen te reageren, zeiden hun kiezers dat ze die niet hadden verzonden. De massale e-mailcampagne had een averechts effect. “Als ze zo slordig zijn met hun belangenbehartiging, wat zegt dat dan over onze zorgen over hun onderhoud, wat van cruciaal belang is”, aldus een commissaris. vertelde E&E Nieuws. Het bestuur stemde unaniem voor een resolutie die zorgen uitte over het project en adviseerde federale ambtenaren een vergunning te weigeren.
Williams, het bedrijf dat de pijplijn wilde aanleggen, suggereerde dat mensen misschien vergeten waren dat ze een e-mail hadden gestuurd. CiviClick, dat de e-mails voor het bedrijf faciliteerde, zei hetzelfde over de campagne in Zuid-Californië. (Het is echter vermeldenswaard dat de Air Quality Agency contact heeft opgenomen met vermoedelijke commentatoren kort nadat de opmerkingen waren ingediend.) Clevinger suggereerde ook dat er sprake zou kunnen zijn van “opzettelijke verkeerde karakterisering of misbruik van onze hulpmiddelen” door groepen als de Sierra Club die “een gevestigd belang hebben bij het in diskrediet brengen van de authenticiteit ervan.”
Wanneer bureaus een stortvloed aan valse e-mails ontvangen, is het niet duidelijk in hoeverre dit noodzakelijkerwijs de besluitvorming beïnvloedt. “Wat er toe doet is niet de identiteit van de commentator”, zegt Steven Balla, hoogleraar politieke wetenschappen die publiek commentaar bestudeert. “Het gaat om de inhoud van de opmerking.” Agentschappen zijn verplicht rekening te houden met de technische, juridische en financiële informatie die hen tijdens het commentaarproces wordt gepresenteerd, zegt hij. Maar ze tellen niet op hoeveel reacties ze op elke pagina hebben gekregen, en het zijn de ideeën die belangrijker zijn dan de naam van de persoon die ze heeft ingediend.
Valse of door AI gegenereerde opmerkingen ‘ruiken’, zegt hij. “Maar ik ben nog niet ontroerd. Wauw, dit verandert de manier waarop politieke beslissingen worden genomen compleet.” In het geval van netneutraliteit stelt hij dat de miljoenen reacties uiteindelijk geen invloed hadden op wat de eerste regering-Trump wilde doen.
“Wat ik meer in het algemeen weet over desinformatie is dat desinformatie over het algemeen een minimale impact heeft op wat mensen denken of doen”, zegt Jonathan Brennan, directeur van het Center for Technology Policy aan de NYU. “Ik zou me veel meer zorgen maken over de secundaire effecten van een algemeen verlies aan vertrouwen – overheidsfunctionarissen zeggen: we kunnen geen enkele publieke reactie echt vertrouwen, misschien zijn ze allemaal vals, misschien ook niet, dus we geven ze gewoon minder gewicht.” Een plaatselijk schoolbestuur zou bijvoorbeeld in theorie meer kunnen luisteren naar mensen die persoonlijk commentaar komen geven, waardoor het voor anderen moeilijker wordt om hun mening te delen als ze geen tijd hebben om deel te nemen.
Bureaus kunnen technologie gebruiken om digitale commentaren te sorteren en duplicaten samen te vatten, zegt Balla. Het verschilt van oudere massacommentaren die op ansichtkaarten verschenen. “Vroeger, in de jaren ’90, sprak ik met een bureau dat destijds misschien wel 100.000 reacties kreeg”, zegt hij. “Ze werkten nog steeds op papier. Ze hadden letterlijk een opslagruimte in Rockville, Maryland, waar ze de stukjes papier in stapels legden. Het was een hoop werk. Nu krijg je 100.000 reacties en 99.000 daarvan zullen bijna identiek zijn. En dat kun je binnen enkele seconden uitzoeken.”
Maar als AI gemakkelijk een reeks unieke opmerkingen kan genereren, kan het proces moeilijker worden. Plummer van de Sierra Club suggereert dat er iets moet veranderen. “Astroturfing en de oprichting van frontgroepen – een vervuilende industrie die probeert de illusie te wekken van brede steun voor een standpunt – is niets nieuws”, zegt hij. “Onze grote zorg is echter dat deze nieuwe technologieën met de verspreiding van AI deze tactieken op steroïden zullen zetten en ze nog verraderlijker en moeilijker uit te roeien zullen maken. En dat is naar mijn mening een directe bedreiging voor democratische processen en besluitvorming.”
In het South Coast Air Quality Management District stemde het bestuur ternauwernood voor het verwerpen van de voorgestelde regel die de vervuiling zou hebben teruggedrongen. Hoewel CiviClick prees zijn werk wat betreft de beïnvloeding van de beslissing is het moeilijk te zeggen welke impact de opmerkingen hadden. Het bestuur gaf het bureau opdracht de regel terug te sturen naar een commissie voor verdere discussie. De regel kan later opnieuw worden bekeken, hoewel er geen tijdlijn is gegeven.
Nu vraagt de Sierra Club de procureur-generaal van Californië en de officier van justitie van LA om een fraudeonderzoek te starten. Ook staatsenator Christopher Cabaldon heeft onlangs een nieuw wetsvoorstel ingediend, genaamd “Mensen, geen bots”, wat zou verduidelijken dat AI-instrumenten niet als mensen kwalificeren en geen valse publieke inbreng mogen bieden.
En bij het luchtkwaliteitsagentschap in Zuid-Californië onderzoekt het personeel manieren om het indienen van reacties veiliger te maken, waaronder portalen die nieuwe manieren kunnen bieden om te verifiëren dat een inzending afkomstig is van een mens – hoewel dat een steeds moeilijkere taak is om te volbrengen. “Het handhaven van de integriteit van ons publieke proces is een topprioriteit”, zegt Yeung.



