Home Nieuws Speciale docenten gebruiken kunstmatige intelligentie om de gaten op te vullen, maar...

Speciale docenten gebruiken kunstmatige intelligentie om de gaten op te vullen, maar de effecten zijn onbekend

11
0
Speciale docenten gebruiken kunstmatige intelligentie om de gaten op te vullen, maar de effecten zijn onbekend

In het speciaal onderwijs in de Verenigde Staten is de financiering schaars Het tekort aan personeel is wijdverbreidwaardoor veel schooldistricten in de problemen komen huur gekwalificeerde en bereidwillige therapeuten.

Te midden van deze al lang bestaande uitdagingen zijn er groeiende belangstelling bij het gebruik kunstmatige intelligentie instrumenten om enkele van de lacunes waarmee districten momenteel worden geconfronteerd te helpen dichten en de arbeidskosten te verlagen.

Meer dan 7 miljoen kinderen ontvangen door de federale overheid gefinancierde rechten De Onderwijswet voor personen met een handicapdie ervoor zorgen dat studenten toegang hebben tot onderwijs dat is afgestemd op hun unieke fysieke en psychologische behoeften, evenals juridische processen waarmee gezinnen over steun kunnen onderhandelen. Bij speciaal onderwijs is een verscheidenheid aan professionals betrokken, waaronder revalidatiespecialisten, logopedisten en onderwijsassistenten in de klas. Maar deze specialisten zijn schaarsondanks de gedocumenteerde behoefte aan hun diensten.

Als docent speciaal onderwijs die met AI werkt, zie ik de potentie en de valkuilen ervan. Hoewel AI-systemen de administratieve lasten kunnen verminderen, deskundige begeleiding kunnen bieden en overweldigde professionals kunnen helpen hun dossiers te beheren, kunnen ze ook ethische uitdagingen met zich meebrengen – van machinevooroordelen tot bredere vragen over vertrouwen in geautomatiseerde systemen. Ze lopen ook het risico de bestaande problemen met de manier waarop op maat gemaakte diensten worden geleverd, te verergeren.

Toch kiezen sommigen in het veld ervoor om AI-tools te testen in plaats van te wachten op een perfecte oplossing.

Een sneller IEP, maar hoe geïndividualiseerd?

AI geeft nu al vorm aan de planning van speciaal onderwijs, de voorbereiding en beoordeling van personeel.

Een voorbeeld is het geïndividualiseerde onderwijsprogramma, of IEP, het belangrijkste instrument om te bepalen welke diensten een kind ontvangt. Een IEP maakt gebruik van een verscheidenheid aan beoordelingen en andere gegevens om de sterke punten van een kind te beschrijven, zijn behoeften te bepalen en meetbare doelen te stellen. Elk onderdeel van dit proces is afhankelijk van getrainde professionals.

Maar aanhoudend tekort aan arbeidskrachten districten hebben vaak moeite met het uitvoeren van beoordelingen, het bijwerken van plannen en het integreren van de inbreng van ouders. De meeste districten ontwikkelen IEP’s met behulp van software die beoefenaars verplicht te kiezen uit een gegeneraliseerde reeks van routinematige antwoorden of opties, wat leidt tot een niveau van standaardisatie dat kan niet voldoen aan de werkelijke individuele behoeften van een kind.

Voorlopig onderzoek heeft aangetoond dat grote taalmodellen zoals ChatGPT bedreven kunnen zijn in het genereren van belangrijke specials educatieve documenten zoals IEP’s door gebruik te maken van meerdere gegevensbronnen, waaronder informatie van studenten en gezinnen. Chatbots die snel IEP’s kunnen maken, kunnen praktijkbeoefenaars in het speciaal onderwijs mogelijk helpen beter tegemoet te komen aan de behoeften van individuele kinderen en hun gezinnen. Sommige beroepsorganisaties in het speciaal onderwijs hebben dat zelfs moedigde docenten aan om AI te gebruiken voor documenten zoals lesplannen.

Training en diagnose van handicaps

Er is ook potentieel voor AI-systemen om professionele training en ontwikkeling te ondersteunen. Mijn eigen werk on staff development combineert verschillende AI-toepassingen met virtual reality om beoefenaars in staat te stellen instructieroutines te oefenen voordat ze rechtstreeks met kinderen gaan werken. Hier kan AI fungeren als een praktische uitbreiding van bestaande trainingsmodellen, door herhaalde oefeningen en gestructureerde ondersteuning te bieden op manieren die moeilijk vol te houden zijn met een beperkt personeelsbestand.

Sommige districten zijn begonnen met het gebruik van AI voor beoordelingen, wat een verscheidenheid aan academische, cognitieve en medische evaluaties kan omvatten. AI-toepassingen die automatische spraakherkenning en taalverwerking combineren is nu werkzaam bij computerondersteunde mondelinge leesbeoordelingen om tests van de leesvaardigheid van studenten te scoren.

Oefen vaak moeite om betekenis te geven van de hoeveelheid gegevens die scholen verzamelen. AI-aangedreven machinaal leren Hulpmiddelen kunnen hier ook helpen door patronen te identificeren die voor docenten misschien niet meteen duidelijk zijn voor evaluatie of instructiebeslissingen. Dergelijke ondersteuning kan bijzonder nuttig zijn bij het diagnosticeren van handicaps zoals autisme of leerproblemenwaar maskering, variabele presentatie en onvolledige geschiedenissen interpretatie moeilijk kunnen maken. Mijn lopende onderzoek laat zien dat de huidige AI voorspellingen kan doen op basis van gegevens die waarschijnlijk in sommige districten beschikbaar zullen zijn.

Privacy- en vertrouwensproblemen

Er zijn serieuze ethische – en praktische – vragen over deze AI-ondersteunde interventies, van risico’s voor de privacy van studenten tot verstoring van machines en diepere kwesties die verband houden met het vertrouwen van het gezin. Sommigen draaien om de vraag of AI-systemen diensten kunnen leveren die werkelijk voldoen aan de bestaande wetgeving.

De De Onderwijswet voor personen met een handicap vereist dat niet-discriminerende methoden voor het evalueren van handicaps worden vermeden ongepast identificeren studenten voor diensten of verwaarlozen naar dienen degenen die in aanmerking komen. En die De Familierechten en Privacywet beschermt expliciet de privacy van studentengegevens en het recht van ouders om de gegevens van hun kinderen in te zien en op te slaan.

Wat gebeurt er als een AI-systeem bevooroordeelde gegevens of methoden gebruikt om een ​​aanbeveling voor een kind te genereren? Wat als de gegevens van een kind worden misbruikt of gelekt door een AI-systeem? Het gebruik van AI-systemen om enkele van de hierboven beschreven functies uit te voeren, plaatst gezinnen in een positie waarin van hen wordt verwacht dat ze niet alleen hun vertrouwen stellen in hun schooldistrict en het speciaal onderwijspersoneel, maar ook in commerciële AI-systemen waarvan de innerlijke werking grotendeels ondoorgrondelijk is.

Deze ethische zorgen zijn dat wel nauwelijks uniek voor speciale edities; Velen zijn op andere gebieden opgegroeid en aangepakt door early adopters. Hoewel automatische spraakherkenning, of ASR, veel systemen moeite hebben gehad om Engels met een accent nauwkeurig te beoordelen leveranciers trainen nu hun systemen om tegemoet te komen aan specifieke etnische en regionale accenten.

Maar lopende onderzoekswerkzaamheden suggereren dat sommige ASR-systemen beperkt zijn in hun vermogen om spraakverschillen op te vangen die verband houden met handicaps, rekening te houden met lawaai in de klas en onderscheid te maken tussen verschillende stemmen. Hoewel deze problemen in de toekomst door technische verbeteringen kunnen worden opgelost, hebben ze op dit moment grote gevolgen.

Ingebedde vooringenomenheid

Op het eerste gezicht lijken machine learning-modellen de traditionele klinische besluitvorming te verbeteren. Toch moeten AI-modellen worden getraind op basis van bestaande gegevens, wat betekent dat hun beslissingen al lang bestaande beslissingen kunnen blijven weerspiegelen vooroordelen in de manier waarop handicaps zijn vastgesteld.

Onderzoek heeft dat inderdaad aangetoond AI-systemen worden routinematig gehinderd door vooroordelen in zowel trainingsgegevens als systeemontwerp. AI-modellen kunnen ook nieuwe vooroordelen introduceren, hetzij door het missen van subtiele informatie die tijdens persoonlijke evaluaties naar voren komt, hetzij door het overrepresenteren van kenmerken van groepen die in de trainingsgegevens zijn opgenomen.

Dergelijke zorgen, zo zouden voorstanders kunnen betogen, worden aangepakt door waarborgen die al in de federale wetgeving zijn verankerd. Gezinnen hebben een grote mate van vrijheid bij het bepalen van wat zij overeenkomen en kunnen alternatieven kiezen, op voorwaarde dat zij zich ervan bewust zijn dat dit mogelijk is het IEP-proces beheren.

Op dezelfde manier kan het gebruik van AI-tools om IEP’s of lessen samen te stellen een voor de hand liggende verbetering lijken ten opzichte van onderontwikkelde of oppervlakkige plannen. Echte individualisering zou echter vereisen dat beschermde gegevens in grote taalmodellen worden ingevoerd. die zou kunnen schenden privacy regelgeving. En hoewel AI-toepassingen gemakkelijk mooiere IEP’s en ander papierwerk kunnen opleveren, resulteert dit niet noodzakelijkerwijs in verbeterde dienstverlening.

Om de leemte op te vullen

Het is nog niet duidelijk of AI een zorgstandaard biedt die gelijkwaardig is aan de conventionele, hoogwaardige zorg waarop kinderen met een handicap volgens de federale wetgeving recht hebben.

De Het Hooggerechtshof heeft dit in 2017 afgewezen Het idee dat de Onderwijswet voor Personen met een Handicap studenten eenvoudigweg recht geeft op triviale, ‘de minimis’-vooruitgang, ondermijnt een van de belangrijkste redenen voor het nastreven van AI: dat het kan voldoen aan een minimumstandaard van zorg en praktijk. En aangezien AI echt niet op grote schaal empirisch is geëvalueerd, is niet bewezen dat het adequaat voldoet aan de lage lat van simpelweg verbeteren voorbij de gebrekkige status quo.

Maar dit verandert niets aan de realiteit van beperkte middelen. Ten goede of ten kwade wordt AI al gebruikt om de kloof te dichten tussen wat de wet vereist en wat het systeem daadwerkelijk oplevert.

Seth Koning is docent bijzondere pedagogiek bij Universiteit van Iowa.

Dit artikel is opnieuw gepubliceerd van Het gesprek onder een Creative Commons-licentie. Lezen origineel artikel.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in