Wanneer een patiënt vandaag de dag een huisartsenpraktijk in Australië binnenloopt, kan de arts beginnen met een vraag: “Gaat u akkoord met het gebruik van een AI-schrijver om ons gesprek op te nemen?”
Dat is tenminste wat er moet gebeuren.
Volgens een online enquête van het Royal Australian College of GPs (RACGP) is het gebruik van AI-schrijvers door artsen in Australië bijna verdubbeld van 22% in augustus 2024 naar 40% in november 2025.
Deze AI-tools – zoals die van het Australische bedrijf Heidi – registreren, transcriberen en vatten gesprekken tussen artsen en patiënten samen in medische aantekeningen.
“We doen er alles aan om patiënten te laten weten dat we kunstmatige intelligentie gebruiken en hen de mogelijkheid te geven zich af te melden. Dat is een heel belangrijk onderdeel”, zegt Dr. Max Mollenkopf, een huisarts gevestigd in Newcastle. “Patiënten gewoon vertellen wat er aan de hand is, en er niet subtiel over proberen te zijn.”
Heidi wordt steeds vaker gebruikt door huisartsen, en de in Melbourne gevestigde startup zegt dat het in 18 maanden tijd over de hele wereld meer dan 115 miljoen sessies heeft ondersteund.
De groeiende populariteit van AI-schrijvers zou de administratieve lasten van artsen kunnen verlichten, maar experts wijzen op zorgen over toestemming, privacy en nauwkeurigheid.
Artsen waarmee Guardian Australia sprak, benadrukten het belang van het verkrijgen van toestemming van patiënten voordat dergelijke AI-hulpmiddelen worden gebruikt.
Maar Dr. Elizabeth Deveny, CEO van Consumer Gezondheid Forum zegt dat niet alle praktijken expliciete gesprekken voeren over de tools. “Ik ging onlangs naar mijn huisarts en in de wachtkamer hing een poster voor een AI-schrijver”, zegt ze. “Er stond eigenlijk: ‘Door dit te lezen, begrijpt u dat uw toestemming wordt gegeven’.”
Als artsen ernaar vragen, zegt Deveny dat het is geformuleerd als een ‘vind je het niet erg als ik dit gebruik?’ gesprek. “Denk eens aan het machtsverschil tussen een consument en de arts. Wat zullen zij zeggen?”
Voor sommige huisartsen worden AI-schrijvers gezien als een administratief hulpmiddel waarmee ze tijdens een consult beter met patiënten kunnen communiceren, doordat ze zich rechtstreeks op de patiënt kunnen concentreren in plaats van verwoed aantekeningen te maken, en om achteraf te helpen bij het bijhouden van gegevens.
“Ze gebruiken het ook als compliance-instrument”, zegt Mollenkopf. “Het goede aan de scripttools is dat ze dat consult kunnen nemen en het vervolgens in een formaat kunnen plaatsen dat geschikt is als je een Medicare-audit hebt gehad.”
“Het geeft huisartsen dus veel zekerheid dat ze, als ze worden gecontroleerd, aan Medicare het werk kunnen bewijzen dat ze hebben gedaan, omdat de auteurstool het hele consult heeft gehoord.”
Mollenkopf was bètatester voor Heidi AI, maar werd niet door het bedrijf betaald voor dat werk of die meningen, en blijft betalen voor zijn eigen gebruik van de app. Hij heeft ook gebruik gemaakt van Heidi’s Comms-service, een AI-bot die namens artsen patiënten kan bellen om tussen de consulten door een update te krijgen over hun toestand.
“Je zou denken dat (sommige patiënten) daar verontwaardigd over zouden zijn… maar het is eigenlijk een heel kleine minderheid”, zegt Mollenkopf.
Deveny zegt dat er zorgen bestaan dat het uitbesteden van het maken van aantekeningen aan AI het risico met zich meebrengt dat artsen hun gesprekken met patiënten niet kunnen bewaren en onthouden.
“Wat consumenten zeggen is dat wanneer ze teruggaan naar hun huisarts, ze het gevoel hebben dat een huisarts geen emotionele band met hen heeft gehad… omdat de huisarts niet zo bekend lijkt met wat er de vorige keer is gebeurd”, zegt ze.
Dr. Caitlin Curtis, onderzoeker aan de Universiteit van Queensland, gespecialiseerd in verantwoorde AI, is het daarmee eens. “Het maken van notities is niet alleen maar administratief; als we dingen opschrijven en samenvatten, maakt het deel uit van hoe we denken”, zegt ze.
“Het helpt ons informatie te verwerken, na te denken, prioriteiten te stellen en echt te begrijpen wat er aan de hand is. Als dat proces wordt geautomatiseerd of verwijderd, kan het tijd besparen, maar het roept de vraag op wat er nog meer verloren gaat.”
Vice-voorzitter van RACGP digitale gezondheid en innovatie, Dr. Janice Tan, zegt echter dat het een deel van de administratieve lasten voor artsen kan verlichten.
“Artsen kunnen daadwerkelijk de ruimte krijgen om opnieuw na te denken – om aanwezig te zijn bij een consultatie in plaats van half afgeleid te worden door papierwerk”, zegt ze. “Burn-out in de huisartspraktijk is op dit moment slecht, en als AI een deel van die spanning kan opvangen, is het de moeite waard om er aandacht aan te besteden.”
AI-notulisten registreren ook niet de toon, emotie en non-verbale signalen die een patiënt gebruikt als hij iets zegt, bijvoorbeeld tijdens een consultatie in de geestelijke gezondheidszorg, zegt Curtis.
De hulpmiddelen zijn momenteel vrijgesteld van de regels van de Therapeutic Goods Administration, omdat ze geen directe diagnose bij patiënten stellen.
Het risico voor patiëntgegevens is een constant risico in de gezondheidszorg, en Australië heeft al te maken gehad met een aantal privacyschendingen met betrekking tot medische gegevens, waaronder Australische klinische laboratoria, MedibankEn Het gen.
De RACGP-president, dr. Michael Wright, zei dat hij optimistisch was dat AI-hulpmiddelen patiënten en huisartsen zouden helpen nauwer samen te werken om de beste handelwijze voor individuele patiënten te bepalen, maar zei dat zorgen over privacy en toestemming een probleem waren.
“De arts – en mogelijk ook de patiënt – moet bevestigen dat elke AI-uitvoer correct is”, zegt hij.
Mede-oprichter en CEO van Heidi, Dr. Tom Kelly, zegt dat gegevens worden verwerkt in het land waar de patiënt zich bevindt en niet worden gebruikt om AI te trainen of aan anderen worden verkocht. Het bedrijf maakt gebruik van tests en audits door derden om de gegevens veilig te houden, voegt hij eraan toe.
Hij zegt dat het bedrijf zichzelf aan een hoge standaard houdt bij het garanderen dat transcripties – die het model van Heidi zelf verwerkt – accuraat zijn, maar dat artsen hun door AI ondersteunde aantekeningen nog steeds moeten controleren.
“Zelfs artsen spellen en spreken verkeerd en begrijpen dingen verkeerd”, zegt hij. “Maar de fouten die wij (Heidi) maken zijn vreemder omdat het ongebruikelijke misverstanden zijn die mensen niet zouden maken.”


