Home Nieuws Hoe de ‘veilige autoriteit’ van Google AI Overviews de volksgezondheid in gevaar...

Hoe de ‘veilige autoriteit’ van Google AI Overviews de volksgezondheid in gevaar brengt | Googlen

17
0
Hoe de ‘veilige autoriteit’ van Google AI Overviews de volksgezondheid in gevaar brengt | Googlen

Heb ik griep of Covid? Waarom word ik moe wakker? Wat veroorzaakt de pijn in mijn borst? Al meer dan twintig jaar levert het typen van medische vragen in de populairste zoekmachine ter wereld een lijst met links op naar websites met de antwoorden. Googlen deze gezondheidsvragen vandaag de dag en het antwoord zal waarschijnlijk door kunstmatige intelligentie worden geschreven.

Sundar Pichai, de CEO van Google, presenteerde voor het eerst de plannen van het bedrijf om AI in zijn zoekmachine te integreren tijdens zijn jaarlijkse conferentie in Mountain View, Californië, in mei 2024. Vanaf die maand zei hij dat Amerikaanse gebruikers een nieuwe functie te zien zouden krijgen, AI Overviews, die informatieve overzichten van traditionele zoekresultaten zou bieden. De verandering markeerde de grootste opschudding van het kernproduct van Google in een kwart eeuw. In juli 2025 was de technologie uitgebreid naar meer dan 200 landen in 40 talen, waarbij maandelijks 2 miljard mensen konden profiteren van AI-inzichten.

Met de snelle uitrol van AI Overviews probeert Google zijn traditionele zoekactiviteiten, die ongeveer $200 miljard genereren, te beschermen. (£147 miljard) per jaar voordat beginnende AI-rivalen het kunnen laten ontsporen. “We lopen in een ongelooflijk tempo voorop op het gebied van kunstmatige intelligentie en scheepvaart”, zei Pichai afgelopen juli. Vooral AI-overzichten “werkten goed”, voegde hij eraan toe.

Maar vermeldingen brengen risico’s met zich mee, zeggen experts. Ze gebruiken generatieve AI om momentopnamen te maken van informatie over een onderwerp of vraag, en in een handomdraai conversatiereacties toe te voegen aan de traditionele zoekresultaten. Ze kunnen bronnen citeren, maar weten niet noodzakelijkerwijs wanneer die bron ongelijk heeft.

Google-CEO Sundar Pichai hoopt dat AI Overviews kan helpen hun online zoekinkomsten op peil te houden. Foto: Kylie Cooper/Reuters

Binnen enkele weken nadat de functie in de VS werd gelanceerd, gebruikers kwamen onwaarheden tegen over een hele reeks onderwerpen. Eén AI-overzicht Andrew Jackson, de zevende Amerikaanse president, zei studeerde in 2005 af aan de universiteit. Elizabeth Reid, hoofd zoeken bij Google, reageerde op kritiek in een blogpost. Ze gaf toe dat AI Overviews “in een klein aantal gevallen” de taal op webpagina’s verkeerd had geïnterpreteerd en onnauwkeurige informatie had gepresenteerd. “Op de schaal van het internet, waar elke dag miljarden zoekopdrachten binnenkomen, zijn er ongetwijfeld enkele eigenaardigheden en bugs”, schreef ze.

Maar als deze vragen over gezondheid gaan, zijn nauwkeurigheid en context van cruciaal belang en niet onderhandelbaar, zeggen experts. Google wordt geconfronteerd met steeds meer toezicht op zijn AI-vermeldingen voor medische vragen een Guardian-onderzoek ontdekte dat mensen gevaar liepen door valse en misleidende gezondheidsinformatie.

Het bedrijf zegt dat AI-overzichten “betrouwbaar“. Maar De Guardian heeft gevonden sommige medische samenvattingen lieten onnauwkeurige gezondheidsinformatie zien en brachten mensen in gevaar. In één geval dat volgens experts ‘echt gevaarlijk’ was, adviseerde Google mensen met alvleesklierkanker ten onrechte om vet voedsel te vermijden. Deskundigen zeiden dat dit precies het tegenovergestelde was van wat zou moeten worden aanbevolen en dat het het risico zou kunnen vergroten dat patiënten aan de ziekte overlijden.

In een ander ‘alarmerend’ voorbeeld verstrekte het bedrijf valse informatie over belangrijke leverfunctietests, waardoor mensen met een ernstige leverziekte zouden kunnen geloven dat ze gezond waren. Wat volgens AI Overviews normaal is, kan drastisch verschillen van wat feitelijk als normaal wordt beschouwd, zeggen experts. De samenvattingen kunnen ertoe leiden dat ernstig zieke patiënten ten onrechte denken dat ze een normale testuitslag hebben en niet de moeite nemen om naar vervolgafspraken te komen.

Ook AI-overzichten van kankertests bij vrouwen verstrekt “helemaal verkeerdInformatie waarvan experts zeiden dat dit ertoe zou kunnen leiden dat mensen echte symptomen afwijzen.

Google eerst probeerde te bagatelliseren De bevindingen van The Guardian. Op basis van wat de eigen artsen konden beoordelen, aldus het bedrijf, hebben de AI-overzichten experts gelinkt aan gerenommeerde bronnen gewaarschuwd en aanbevolen om deskundig advies in te winnen. “We investeren aanzienlijk in de kwaliteit van AI-overzichten, vooral voor onderwerpen als gezondheid, en de overgrote meerderheid levert nauwkeurige informatie op”, aldus een woordvoerder.

Binnen enkele dagen echter het bedrijf verwijderd enkele van de AI-overzichten voor gezondheidsvragen gemarkeerd door de Guardian. “We geven geen commentaar op individuele verwijderingen binnen de zoekresultaten”, aldus een woordvoerder. “In gevallen waarin AI-overzichten enige context missen, werken we aan brede verbeteringen en komen we waar nodig ook tussenbeide in het kader van ons beleid.”

Hoewel experts de verwijdering van enkele AI-samenvattingen voor gezondheidsvragen verwelkomden, blijven velen zich zorgen maken. “Onze grootste zorg bij dit alles is dat het een enkel zoekresultaat verkiest en Google daarvoor gewoon de AI-weergaven kan uitschakelen, maar dat lost het grotere probleem van AI-weergaven voor de gezondheid niet op”, zegt Vanessa Hebditch, directeur communicatie en beleid bij de British Liver Trust, een liefdadigheidsinstelling voor de levergezondheid.

“Er zijn nog steeds te veel voorbeelden van Google AI-overzichten die mensen onnauwkeurige gezondheidsinformatie geven”, zegt Sue Farrington, voorzitter van het Patient Information Forum, dat op bewijs gebaseerde gezondheidsinformatie promoot voor patiënten, het publiek en professionals in de gezondheidszorg.

EEN nieuwe studie heeft aanleiding gegeven tot diverse zorgen. Toen onderzoekers de reacties op meer dan 50.000 gezondheidsgerelateerde zoekopdrachten in Duitsland analyseerden om te zien welke bronnen AI Overviews het meest vertrouwt, viel één resultaat meteen op. Het meest geciteerde domein was YouTube.

‘Dit is belangrijk omdat YouTube geen medische uitgever is’ schreven de onderzoekers. “Het is een videoplatform voor algemeen gebruik. Iedereen kan daar inhoud uploaden (bijvoorbeeld gecertificeerde artsen, ziekenhuiskanalen, maar ook welzijnsbeïnvloeders, levenscoaches en makers zonder enige medische opleiding).”

In de geneeskunde gaat het niet alleen om waar de antwoorden vandaan komen, of om hun nauwkeurigheid, maar ook om hoe ze aan gebruikers worden gepresenteerd, zeggen experts. “Met AI Overviews komen gebruikers niet langer een reeks bronnen tegen die ze kunnen vergelijken en kritisch kunnen beoordelen”, zegt Hannah van Kolfschooten, onderzoeker op het gebied van AI, gezondheid en recht aan de Universiteit van Basel. “In plaats daarvan krijgen ze een eenvoudig, zelfverzekerd, door AI gegenereerd antwoord dat blijk geeft van medische autoriteit.

“Dit betekent dat het systeem niet simpelweg online gezondheidsinformatie weergeeft, maar deze actief herstructureert. Wanneer die reactie wordt gebouwd op bronnen die nooit zijn ontworpen om aan medische normen te voldoen, zoals YouTube video’s creëert dit een nieuwe vorm van ongereguleerde medische autoriteit online.”

Google zegt dat er AI-overzichten worden gebouwd om informatie weer te geven die wordt ondersteund door de beste webresultatenen links bevatten naar webinhoud die de informatie in de samenvatting ondersteunt. Mensen kunnen deze links gebruiken om dieper in een onderwerp te duiken, vertelde het bedrijf aan de Guardian.

Maar de afzonderlijke tekstblokken in AI Overviews, die gezondheidsinformatie uit meerdere bronnen combineren, kunnen voor verwarring zorgen, zegt Nicole Gross, hoofddocent bedrijfsleven en samenleving aan het National College of Ireland.

“Wanneer gebruikers de AI-samenvatting te zien krijgen, is de kans veel kleiner dat ze verder onderzoek doen, wat betekent dat ze de mogelijkheid ontnemen om informatie kritisch te evalueren en te vergelijken of zelfs hun gezond verstand te gebruiken als het gaat om gezondheidsgerelateerde kwesties.”

Deskundigen hebben andere zorgen geuit bij The Guardian. Zelfs als en wanneer AI-reviews nauwkeurige feiten opleveren over een specifiek medisch onderwerp, maken ze mogelijk geen onderscheid tussen sterk bewijs uit gerandomiseerde onderzoeken en zwakker bewijs uit observationele onderzoeken, zeggen ze. Sommigen missen ook belangrijke kanttekeningen bij dit bewijsmateriaal, voegen ze eraan toe.

Als dergelijke claims naast elkaar worden vermeld in een AI-samenvatting, kan dit ook de indruk wekken dat sommige beweringen beter onderbouwd zijn dan ze in werkelijkheid zijn. De antwoorden kunnen ook veranderen naarmate AI-overzichten evolueren, zelfs als de wetenschap niet is veranderd. “Het betekent dat mensen een ander antwoord krijgen, afhankelijk van wanneer ze zoeken, en dat is niet goed genoeg”, zegt Athena Lamnisos, algemeen directeur van de kankerliefdadigheidsinstelling Eve Appeal.

Google vertelde de Guardian dat links in AI-overzichten dynamisch waren en veranderden op basis van de informatie die het meest relevant, nuttig en actueel was voor een bepaalde zoekopdracht. Als AI Overviews webinhoud verkeerd interpreteerde of een context miste, zou het bedrijf die fouten gebruiken om zijn systemen te verbeteren en indien nodig actie ondernemen, aldus het bedrijf.

De grootste zorg is dat valse en gevaarlijke medische informatie of adviezen in AI-overzichten “uiteindelijk worden vertaald naar de dagelijkse praktijk, routines en het leven van een patiënt, zelfs in aangepaste vormen”, zegt Gross. “In de gezondheidszorg kan dit een kwestie van leven of dood worden.”

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in