Home Nieuws Schalen van verkeerde informatie. We moeten beter worden in het bestrijden ervan

Schalen van verkeerde informatie. We moeten beter worden in het bestrijden ervan

4
0
Schalen van verkeerde informatie. We moeten beter worden in het bestrijden ervan

De meeste dagen belandt er een e-mail in mijn inbox die belooft mijn groei te versterken: mijn nieuwsbriefabonnees, het bereik van mijn podcasts, het aantal leads, enz. Ik ben eraan gewend geraakt dat willekeurige mensen mij opbellen voor hun diensten, en sommige berichten maken op deskundige wijze misbruik van mijn onzekerheden als bedrijfseigenaar (“je laat zoveel op tafel liggen”, et al.). Ik beantwoord ze nooit, maar ik vraag me soms af welke echt legitiem zijn.

Een paar maanden geleden opende ik de Assistent-zijbalk in mijn AI-aangedreven browser toen ik een van die e-mails doorbladerde en vroeg of deze er verdacht uitzag (ik denk dat “dit ziet er sus uit?” was de daadwerkelijke prompt). Het antwoordde dat ja, het bericht dat werd ingediend om financiering te vinden voor The Media Copilot belangrijke informatie miste die een gevestigde organisatie zou bevatten, en dat het was verzonden door iemand met een e-mailadres van een niet-bestaand domein en geen LinkedIn-profiel.

Toen ik las, dacht ik aan mijn ervaring Tijd over hoe een team bij MIT onderhoudt een online portaal dat vertelt hoe schadelijke AI-gebeurtenissen is de afgelopen jaren toegenomen. De TL; DR is dat gebruik van kunstmatige intelligentie om schade te veroorzakenopzettelijk of per ongeluk, is de afgelopen jaren aanzienlijk toegenomen. De incidenten omvatten alles, van eenvoudige fouten tot opzettelijke overtredingenen de brede categorieën die het meest zijn toegenomen, hebben te maken met desinformatie en kwaadwillende actoren. Helaas is het logisch: degenen die willen misleiden, verkeerd informeren of regelrechte oplichterij hebben nooit betere hulpmiddelen gehad om dat te doen.

{“blockType”creator-network-promo”,”data”:{“mediaUrl”https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/03/mediacopilot-pngo”s.headline”s.” CoPilot”,”description:Wilt u meer weten over hoe AI de media verandert. Mis nooit meer een update van Pete Pachal door u aan te melden voor Media CoPilot. Bezoek mediacopilot.substack.com”, “substackDomain”:https://mediacopilot.substack.com/”, “colorTheme”:zalm”, “redirectUrl””}}

Een van de rollen van de nieuwsmedia is het beheersen van desinformatie en de meeste spraakmakende incidenten die daarmee gepaard gaan AI– zoals wanneer zij Biden robocalls deed de ronde en werd vrij snel ontkracht. Maar incidenten die dat niveau bereiken, zijn de uitzondering en niet de regel. Deepfakes zullen daarvoor misschien nooit genoeg mensen voor de gek houden een keuze makenmaar de cijfers suggereren dat het aantal incidenten minder opvallend is accumuleert snel. Tegelijkertijd neemt het aantal banen voor journalisten toe krimpten de journalisten die overblijven hebben slechts een beperkte bandbreedte.

Scepsis is geen strategie

Naarmate desinformatie van AI toeneemt, ontstaat er een wereld waarin iedereen steeds sceptischer wordt over wat ze lezen, zien en horen. Vorig jaar werd een papier van het National Bureau of Economic Research ontdekte dat blootstelling aan door AI aangedreven desinformatie leidde tot minder vertrouwen in de media in het algemeen. Maar scepticisme alleen is dat niet productief. Waar journalisten het meest kunnen helpen, is niet het proberen elke deepfake of oplichting te ontmaskeren (duidelijk een verloren strijd), maar door hun publiek voor te lichten over hoe ze dat scepticisme op de juiste manier kunnen kanaliseren.

Net als bij mijn e-mailassistent zijn de verificatietools – die zeer snel bronnen kunnen controleren, claims kunnen analyseren en ondersteunend bewijsmateriaal kunnen vinden – nu voor iedereen gemakkelijk beschikbaar. Dit betekent niet dat iedereen meteen moet vertrouwen op wat een AI-chatbot over een bepaald verhaal zegt. Maar AI is een instrument, en als het als journalistieke lens wordt gebruikt, kan het een krachtig instrument zijn.

De sleutel is om AI te behandelen als een assistent van scepticisme, en niet als een autoriteit. Terugkomend op het e-mailvoorbeeld: mijn heen-en-weer-gesprek met de browser vond in enkele seconden wat mij minuten zou hebben gekost, onderwerpen opzoeken, discrepanties signaleren en nieuwe vragen voorstellen om op te volgen. Dit alles is in overeenstemming met de principes van goede journalistiek, en door er praktische richtlijnen over door te geven, zullen lezers in staat worden gesteld om niet alleen slechte informatie op te merken, maar potentieel niet onmiddellijk de goede informatie die er is terzijde te schuiven.

Hoe de cynische valkuil te vermijden

Hoe ziet een goede “AI-verificatielaag” eruit? Het begint met het inzicht dat scepticisme een startpunt is, en niet het doel. Als je het effectief gebruikt, betekent dit dat je AI moet inzetten om de informatie te ondervragen en te voorkomen dat je eigen vermoedens onproductief worden versterkt. Hier zijn drie gewoonten, gebaseerd op journalistieke principes, die op elk AI-hulpmiddel kunnen worden toegepast.

  1. Stel twee keer dezelfde vraag: Veel incidenten waarbij AI schade heeft veroorzaakt, begonnen onschuldig genoeg, maar brachten de gebruiker uiteindelijk in een konijnenhol dat soms tragisch eindigde. Een nuttige gewoonte die dit in sommige gevallen kan voorkomen, is dezelfde vraag een tweede keer te stellen, alleen opnieuw geformuleerd of met een andere formulering. Controleer hoe de antwoorden zich verhouden en volg eventuele significante verschillen op.
  1. Vermogensspecificiteit: Alle goede interviewers gebruiken dit doelbewust. Wanneer iemand een brede claim of uitspraak doet, vraag dan de AI om deze specifieker te maken. Wat ondersteunt die bewering? Wie waren erbij betrokken, wat waren de feiten van het onderliggende bewijsmateriaal, wanneer gebeurde het? Alle vage antwoorden moeten als een waarschuwingssignaal worden behandeld.
  1. Bronnen voor steekproeven: Als een claim gebaseerd is op een link op internet, duurt het niet lang om deze te verifiëren. Als u iets een minuut of twee niet kunt verifiëren, moet u er twee keer over nadenken, maar houd er rekening mee dat er redenen kunnen zijn waarom sommige ware beweringen moeilijk te verifiëren zijn (bijvoorbeeld anonieme bronnen).

De wereld wordt steeds onduidelijker. Tussen AI-hallucinaties, opzettelijke desinformatie en de verspreiding van de memecultuur is het begrijpelijk dat iedereen veel sceptischer is geworden over wat ze zien. Zonder principes en gewoonten die u naar goede informatie leiden, zal dat scepticisme echter maar al te vaak in cynisme vervallen. Journalisten zijn misschien niet in staat om alles te verifiëren wat wij willen dat ze doen, maar hun principes kunnen een nieuwe generatie nieuwsconsumenten helpen het goede van het slechte te onderscheiden – op grote schaal.

{“blockType”creator-network-promo”,”data”:{“mediaUrl”https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/03/mediacopilot-pngo”s.headline”s.” CoPilot”,”description:Wilt u meer weten over hoe AI de media verandert. Mis nooit meer een update van Pete Pachal door u aan te melden voor Media CoPilot. Bezoek mediacopilot.substack.com”, “substackDomain”:https://mediacopilot.substack.com/”, “colorTheme”:zalm”, “redirectUrl””}}

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in