Home Nieuws Scholen gebruiken AI-docenten om de geestelijke gezondheid van leerlingen te volgen. Is...

Scholen gebruiken AI-docenten om de geestelijke gezondheid van leerlingen te volgen. Is het veilig? | AI (kunstmatige intelligentie)

10
0
Scholen gebruiken AI-docenten om de geestelijke gezondheid van leerlingen te volgen. Is het veilig? | AI (kunstmatige intelligentie)

Het alarm kwam rond 19.00 uur.

Brittani Phillips controleerde haar telefoon. Phillips, een middelbare schoolbegeleider in Putnam County, Florida, ontvangt berichten van een therapieplatform met kunstmatige intelligentie dat studenten buiten schooltijd gebruiken. Er wordt aangegeven wanneer een leerling het risico loopt zichzelf of anderen schade toe te brengen op basis van wat de leerling in een chat invoert.

Phillips zag dit als een “serieuze” waarschuwing voor een leerling uit de achtste klasse.

Dus bracht Phillips haar avond door aan de telefoon met de moeder van de student, om haar te ondervragen om erachter te komen wat er aan de hand was en hoe kwetsbaar de student was. Phillips heeft ook de politie gebeld, zegt ze, en merkt op dat ze de studenten vertelt dat de chat vertrouwelijk is totdat ze niet meer kunnen.

Het was vorig schooljaar, in het voorjaar.

“Hij is springlevend. Hij zit dit jaar in de negende klas”, zegt Phillips. Ze gelooft dat de interactie vertrouwen heeft gecreëerd tussen haar en de familie. Als de studente haar nu in de gang tegenkomt, maakt hij er een punt van om haar te begroeten, voegt ze eraan toe.

De middelbare school Interlachen Jr-Sr, waar Phillips werkt, gebruikt een AI-platform om de geestelijke gezondheidszorgbehoeften van leerlingen te onderzoeken terwijl ze omgaan met begrotingstekorten en een beperkt aantal geestelijke gezondheidszorgpersoneel.

Het district Phillips maakt al drie jaar gebruik van Side, een geautomatiseerd leerlingvolgsysteem. Het is een voorbeeld van de groeiende categorie hulpmiddelen die voor vergelijkbare doeleinden op basisscholen wordt verkocht, waarbij ten minste negen bedrijven sinds 2022 financieringsovereenkomsten hebben ontvangen.

Side zegt dat de tool door meer dan 200 scholen in de VS wordt gebruikt en beweert dat het platform betere diensten biedt dan de typische telezorgopties, omdat het een chattool heeft om sociale en emotionele vaardigheden te ontwikkelen – waar studenten hun levensproblemen uiten met een lama genaamd Kiwi die hen probeert te leren hoe ze veerkracht kunnen opbouwen – en de door AI gegenereerde inhoud wordt gecontroleerd door artsen. Het systeem biedt scholen die hulpbronnen gebruiken, vooral op het plattelandtoegang tot cruciale geestelijke gezondheidszorgvoorzieningen, zeggen bedrijfsvertegenwoordigers.

AI is een belangrijk onderdeel van de regering-Trump nationaal onderwijs agenda. Toch zijn sommige ouders, opvoeders en, in toenemende mate, wetgevers op hun hoede voor opkomende tieners tijd achter schermen. Staten zijn ook begonnen beperking van het gebruik van kunstmatige intelligentie in telezorg.

Veel experts en families zijn ook bezorgd dat studenten te sterk hechten aan AI. Zelfs als uit een recent nationaal onderzoek blijkt dat 20% van de middelbare scholieren dit heeft heeft AI romantisch gebruikt of kent iemand die dat heeft gedaanEr is veel belang bij het voorkomen dat studenten emotioneel verbonden raken met bots. Het bevat zelfs een voorgestelde federale wet die AI-bedrijven daartoe zou dwingen herinner de leerlingen eraan dat chatbots geen echte mensen zijn.

Toch zegt Phillips dat de hulpmiddelen die haar school in haar werk gebruikt uniek zijn bij het blussen van de ‘kleine branden’. Met ongeveer 360 middelbare scholieren om te ondersteunen, kan ze met deze tool, die hen helpt bij de scheidingen en andere routinematige problemen waarmee ze worden geconfronteerd, haar tijd concentreren op studenten die de crisis naderen. Bovendien vinden studenten het soms gemakkelijker om AI in te schakelen om met emotionele problemen om te gaan, zegt ze.

Op de digitale bank

De nervositeit van de leerlingen speelt een rol bij het feit dat ze zich op hun gemak voelen bij het toevertrouwen van deze technologieën, zeggen schoolbegeleiders.

Praten met een professional in de geestelijke gezondheidszorg kan intimiderend zijn, vooral voor tieners, zegt Sarah Caliboso-Soto, een erkende klinische maatschappelijk werker die fungeert als assistent-directeur van klinische programma’s aan de Suzanne Dworak-Peck School of Social Work van de University of Southern California en de klinische directeur van het traumaherstelcentrum en de online kliniek voor telegedragsgezondheid van de school.

Er is ook sprake van een generatiecomponent. Voor studenten die zijn opgegroeid met chatinterfaces via sociale media en websites, kunnen AI-interfaces vertrouwd aanvoelen. En kinderen ontdekken tegenwoordig dat sms’en gemakkelijker is dan iemand aan de telefoon bellen, zegt Linda Charmaraman, directeur van het Youth, Media & Wellbeing Research Lab van de Wellesley Centers for Women.

Door kunstmatige intelligentie te gebruiken om emoties te verwerken, kunnen studenten ook voorkomen dat ze gezichtsuitdrukkingen zien waarvan ze bang zijn dat ze een oordeel kunnen vellen, voegt ze eraan toe. Chatbots zijn ook beschikbaar op momenten dat er geen mens aanwezig is, zonder dat je een afspraak hoeft te maken, zegt Charmaraman.

“Het is bijna natuurlijker dan interactie met een ander mens”, zegt Caliboso-Soto.

In haar werk met een telezorgkliniek heeft Caliboso-Soto vooruitgang gezien crisistekstregels en chatlijnen. De kliniek maakt op geen enkele manier gebruik van AI, zegt ze, maar wordt vaak benaderd door bedrijven die AI als notulisten in de therapiesessies willen betrekken.

Dat is volgens Caliboso-Soto niet noodzakelijk een slechte zaak. Voor scholen met weinig middelen kan AI worden gebruikt ‘als een eerste verdedigingslinie’, waarbij regelmatig contact wordt opgenomen met leerlingen en hen in de goede richting wordt gewezen als ze meer hulp nodig hebben, zegt ze.

Volgens het bedrijf bedraagt ​​de startprijs voor een school om gebruik te maken van de diensten van Sideside ongeveer $ 10 per leerling per jaar. Grotere districten ontvangen doorgaans volumekortingen.

Maar Caliboso-Soto maakt zich zorgen over het gebruik van kunstmatige intelligentie als vervangende adviseur. Het ontbreekt aan het oordeelsvermogen dat artsen geven wanneer ze met studenten omgaan, merkt ze op. Hoewel grote taalmodellen kunnen worden getraind om symptomen in tekst op te merken, kunnen ze niet zien of horen wat een menselijke arts kan zien of horen bij interactie met een leerling, de stembuigingen en lichaamsbewegingen, en kunnen ze ook niet op betrouwbare wijze subtiele observaties of gedragingen vastleggen. “Je kunt de menselijke verbinding en het menselijk oordeel niet vervangen”, voegt ze eraan toe.

Hoewel kunstmatige intelligentie het diagnostische proces kan versnellen of tijd kan vrijmaken voor schooladviseurs, is het van cruciaal belang om er niet te veel op te vertrouwen voor de geestelijke gezondheid, zegt Charmaraman. De technologie kan sommige nuances over het hoofd zien die een menselijke begeleider zou kunnen opvangen, en kan leerlingen voorzien van onrealistische positieve bekrachtiging. Scholen moeten een holistische benadering hanteren, waarbij gezinnen en verzorgers betrokken zijn, betoogt zij.

En als een school steeds vaker AI-interventie gebruikt om ernstige gevallen te filteren, is het de moeite waard om aandacht te besteden aan de vraag of leerlingen minder vaak contact hebben met klinisch geschoolde mensen, zegt Caliboso-Soto.

Vertegenwoordigers van Side zeggen van hun kant dat het platform niet bedoeld is als vervanging voor menselijke therapie. De app is een springplank voor het zoeken naar hulp van volwassenen, zegt Ava Shropshire, een junior aan de Washington University die als jeugdadviseur fungeert voor Sideside. Ze beweert dat de app geestelijke gezondheid en sociaal-emotioneel leren normaler maakt voor studenten en hen ertoe kan aanzetten menselijke hulp te zoeken.

Toch geloven sommige studenten dat het op zijn best een pleister is.

Sociale verantwoordelijkheid

‘Kun je een andere tijd in de geschiedenis bedenken waarin mensen zo eenzaam zijn geweest, waarin onze samenleving zo zwak is geweest?’ vraagt ​​Sam Hiner, uitvoerend directeur van de Young People’s Alliance, een in North Carolina gevestigde organisatie die lobbyt voor meer participatie van jongeren in de politiek en het beleid.

In een tijd van economische onrust hebben technologie en sociale media studenten van elkaar gemanipuleerd en geïsoleerd, en dit heeft geleid tot een diep verlangen naar gemeenschap en verbondenheid, zegt Hiner.

Studenten krijgen het waar ze kunnen, ook al is het via ChatGPT, voegt hij eraan toe.

Jonge Alliantie vrijgelaten een raamwerk voor het reguleren van AI dat maakt enkele therapeutische toepassingen van de technologie mogelijk.

Maar over het algemeen streeft de organisatie ernaar de menselijke samenleving weer op te bouwen en verzet zij zich tegen het gebruik van kunstmatige intelligentie wanneer dit menselijk gezelschap dreigt te vervangen, zegt Hiner. “Het is een cruciaal aspect van therapie en van een vervuld leven leiden, sociale connectie hebben en geestelijk welzijn hebben”, voegt hij eraan toe.

Dus voor Hiner is de grootste zorg wat een ‘parasociale relatie’ wordt genoemd, wanneer leerlingen een eenzijdige emotionele gehechtheid ontwikkelen, vooral wanneer technologie de scholen binnendringt voor therapeutische doeleinden. Het hebben van een AI die feedback kan geven of analyses kan uitvoeren, kan waardevol zijn, zelfs voor de geestelijke gezondheid, maar Hiner zegt dat de AI niet mag impliceren of overbrengen dat hij zijn eigen emotionele toestand heeft – zeg bijvoorbeeld ‘Ik ben trots op je’ tegen een student-gebruiker – omdat dat de gehechtheid bevordert.

Hoewel platforms vaak beweren eenzaamheid te verminderen, meten ze niet echt of mensen meer verbonden zijn en meer geneigd zijn om op de lange termijn een vervuld, verbonden en gelukkig leven te leiden, zegt Hiner: “Het enige (techplatforms) meten is of deze bot fungeert als een effectieve steunpilaar voor het onmiddellijke gevoel van eenzaamheid dat ze ervaren.”

Wat voorstanders willen voorkomen is dat deze bots het verlies van sociale vaardigheden aanwakkeren, omdat ze mensen wegtrekken uit relaties met andere mensen. waar ze een sociale verantwoordelijkheid hebbenzegt Hiner.

Grenzen verleggen

Privacy-experts merken op dat deze chatbots over het algemeen niet dezelfde privacybescherming bieden als gesprekken met een erkende therapeut. En wanneer de zorgen over de privacy van studenten en ontmoetingen met de politie groot zijn, roept het gebruik van deze tools ‘rommelige’ privacyproblemen op, zelfs als ze worden gecontroleerd door mensen met een klinische opleiding, zegt een expert op het gebied van privacyrecht.

Zowel het bedrijf als Phillips, de adviseur van Putnam County, benadrukken dat deze systemen menselijk toezicht nodig hebben om te kunnen functioneren. Phillips is van mening dat dit instrument een verbetering is ten opzichte van andere monitoringinstrumenten die het district heeft gebruikt, die leerlingen wijzen op schooldiscipline in plaats van hulp op het gebied van de geestelijke gezondheidszorg.

Dit schooljaar noteerde Phillips in februari 19 “ernstige” waarschuwingen van de AI-gezondheidstool (op een totaal van 393 actieve gebruikers). Het bedrijf maakt geen onderscheid tussen de incidenten die de studenten hebben veroorzaakt. Sommige van dezelfde studenten veroorzaken dus meer van de 19 ‘ernstige alarmen’, merkt Phillips op.

Phillips heeft met behulp van de tool geleerd dat er ook een mens nodig is om tienerhumor waar te nemen.

Dit komt omdat sommige waarschuwingen niet oprecht zijn. Af en toe zullen middelbare scholieren – meestal jongens – de grenzen van deze technologie testen, zegt Phillips. Ze schrijven in de chat “mijn oom raakt me aan” of “mijn moeder slaat me met een stok” om te testen of Phillips het zal volhouden.

Deze jongens proberen alleen maar te zien of iemand luistert, om te testen of het iemand iets kan schelen, zegt ze. Soms vinden ze het gewoon grappig.

Wanneer ze ze apart neemt om erover te praten, kan ze hun lichaamstaal observeren en zien of deze verandert, wat erop zou kunnen wijzen dat de opmerking oprecht was. Als het een grap was, verontschuldigden ze zich vaak. Als een leerling geen berouw lijkt te hebben, belt Phillips de ouders op en vertelt wat er is gebeurd. Maar zelfs in die gevallen meent Phillips dat ze meer opties heeft dan andere monitoringsystemen bieden, waardoor de leerling zou worden uitgesloten van school.

Omdat Phillips de interacties monitort, leren studenten er ook op te vertrouwen dat zij het systeem daadwerkelijk in de gaten houdt, voegt ze eraan toe.

En, zegt ze, het aantal jongens dat het systeem op die manier test, daalt elk jaar.

  • Dit artikel is tot stand gekomen in samenwerking met EdSurgeeen non-profit redactiekamer die onderwijs bestrijkt via originele journalistiek en onderzoek. Schrijf je in voor hun nieuwsbrieven.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in