Vooruitgang binnen kunstmatige intelligentie vormt bijna elk facet van de samenleving, inclusief het onderwijs. De afgelopen jaren, vooral met de beschikbaarheid van geweldige taalmodellen zoals ChatGPT, heeft er een explosie plaatsgevonden van door AI aangedreven edtech. Sommige van deze hulpmiddelen helpen studenten echt, terwijl veel dat niet doen. Voor onderwijsleiders die het beste van AI willen benutten en tegelijkertijd de schade ervan willen beperken, is het een hele opgave.
Daarom is de organisatie die ik leid, het Advanced Education Research and Development Fund, een partnerschap aangegaan met de Alliance for Learning Innovation (ALI) en Education First om te schrijven Bewijs vóór de hype: R&D gebruiken voor samenhangende kunstmatige intelligentie op basisscholen Onderwijs. Ik ging zitten met mijn co-auteurs, Melissa Moritz, een senior adviseur van ALI, en Ila Deshmukh Towery, een Education First Partner, om te bespreken hoe scholen innovatieve, verantwoordelijke en effectieve AI-tools kunnen adopteren.
Vraag: Melissa, wat maak je je zorgen over de huidige golf van AI-edtech-tools en wat zou je veranderen om ervoor te zorgen dat deze tools ten goede komen aan studenten?
Melissa: Al te vaak wordt AI-aangedreven edtech ontwikkeld zonder basis van onderzoek of inbreng van docenten. Dit leidt tot tools die misschien innovatief lijken, maar de verkeerde problemen oplossen, geen bewijs van effectiviteit hebben, de realiteit van de workflow negeren of de ongelijkheid verergeren.
Wat we nodig hebben is een fundamentele verandering in onderwijsonderzoek en -ontwikkeling, zodat docenten vanaf het begin betrokken zijn bij het definiëren van problemen en het ontwikkelen van oplossingen voor de klas. Een diepgaande samenwerking tussen docenten, onderzoekers en productontwikkelaars is essentieel. Laten we infrastructuur en prikkels creëren die het voor hen gemakkelijker maken om samen te werken aan gemeenschappelijke doelen.
Bij de ontwikkeling van AI-instrumenten moet ook prioriteit worden gegeven aan het leren van wetenschap en bewijsmateriaal. Beoefenaars, onderzoekers en ontwikkelaars moeten voortdurend leren en herhalen om studenten de meest effectieve hulpmiddelen te bieden voor hun behoeften en contexten.
Vraag: Ila, wat is de AI x Coherence Academy en wat heeft Education First geleerd over AI-adoptie van de leiders van het basis- en voortgezet onderwijs die aanwezig waren?
Ilja: AI x Coherence Academy helpt cross-functionele schooldistrictteams het werk te doen dat AI nuttig maakt: het probleem definiëren, afstemmen op instructiedoelen en vervolgens tools selecteren (of aanpassen) die passen bij de systeemprioriteiten. Het is een initiatief uit meerdere districten dat schoolsystemen helpt AI te integreren op een manier die de belangrijkste onderwijsprioriteiten versterkt in plaats van ontwricht, zodat adoptie geen reeks afgebroken pilots is.
Door dit werk leren we drie dingen. Ten eerste is de context nieuw. Districten geven de voorkeur aan op maat gemaakte AI-oplossingen die integreren met hun bestaande technologie-infrastructuur boven eenmalige producten. Ten tweede gaan use cases vóór tools. Een duidelijke gebruikscasus die een probleem verwoordt en de resultaten benoemt en bijhoudt, filtert snel de ruis weg. Ten derde is vertrouwen een voorwaarde. In een wereld die steeds sceptischer staat tegenover technologie op scholen, is de kans groter dat docenten, studenten en leden van de gemeenschap meehelpen het probleem te definiëren en vorm te geven aan de manier waarop technologie het helpt oplossen.
Leiders vertellen ons dat ze instrumenten willen die de onderwijs- en leerdoelen die al onderweg zijn versterken, duidelijke gebruiksscenario’s hebben en feedbackloops bieden voor voortdurende verbetering.
Vraag: Melissa en Ila, welke soorten vangrails moeten er aanwezig zijn voor een verantwoorde en effectieve integratie van kunstmatige intelligentie in klaslokalen?
Ilja: Als AI een goede kracht in het onderwijs wil zijn, hebben we meer vangrails nodig. Laten we beginnen met consistentie en eerlijkheid. Om samenhang te bereiken moet de adoptie van AI expliciet worden afgestemd op systeembrede onderwijs- en leerdoelen, datasystemen en workflows. Om problemen met vooringenomenheid en toegankelijkheid tot een minimum te beperken, moeten productontwikkelaars controles op vooringenomenheid en toegankelijkheid publiceren, en moeten schoolsystemen relevante gegevens bijhouden, bijvoorbeeld of hulpmiddelen het leren en de ontwikkeling ondersteunen (versus verstoren), en de effectiviteit en impact van hulpmiddelen op de academische prestaties. Deze barrières moeten samen met docenten en gezinnen worden ontworpen, en niet worden opgelegd door technologen of beleidsmakers.
De districten die echte vooruitgang boeken via onze AI x Coherence Academy zijn geen AI-maximalisten. Ze zijn gedisciplineerd in het verbinden van nieuwe hulpmiddelen met onderwijsdoelen, in samenwerking met de mensen van wie ze hopen dat ze deze zullen gebruiken. In een omgeving met weinig vertrouwen zullen gezamenlijk ontworpen barrières en definities daadwerkelijk blijven bestaan.
Melissa: We hebben ook vangrails nodig rond beveiliging, privacy en bewijsmateriaal. Schoolsystemen moeten de veiligheid bevorderen en de gegevens van leerlingen beschermen door gezinnen te voorzien van informatie over de gebruikte AI-tools en hen duidelijke opt-out-paden te bieden. Wat productontwikkelaars betreft, gebaseerd op het punt van Ila: zij moeten transparant zijn over de manier waarop hun producten AI gebruiken. Ontwikkelaars hebben ook de verantwoordelijkheid om duidelijke richtlijnen te geven over hoe hun product wel en niet mag worden gebruikt, en om bewijsmateriaal over de effectiviteit van het hulpmiddel openbaar te maken. En natuurlijk moeten staats- en districtsleiders en toezichthouders edtech-aanbieders ter verantwoording roepen.
Vraag: Melissa en Ila, wat geeft jullie hoop nu we dit snel veranderende tijdperk van AI binnengaan?
Melissa: We beginnen steeds vaker de juiste gesprekken te voeren over AI en onderwijs. Steeds meer leiders en financiers vragen om bewijs en een paradigmaverschuiving in de manier waarop we denken over lesgeven en leren in het tijdperk van AI. Door mijn werk bij ALI hoor ik van federale beleidsmakers en staats- en districtsleiders dat er een reëel verlangen is naar op bewijs gebaseerde AI-tools die voldoen aan de behoeften van studenten en docenten. Ik hoop dat we samen door dit nieuwe landschap zullen navigeren, met de nadruk op AI-innovaties die zowel verantwoord als effectief zijn.
Ilja: Wat mij hoop geeft, is dat districtsleiders slimmer worden als het gaat om de adoptie van AI. Ze erkennen dat het toevoegen van meer tools niet de oplossing is; consistentie wel. De districten die echte vooruitgang boeken, zijn niet de districten met de meeste AI-pilots; zij zijn degenen die gedisciplineerd zijn over hoe nieuwe tools aansluiten op hun bestaande doelen, systemen en relaties. Ze vragen zich af: versterkt dit wat we al goed proberen te doen, of trekt het ons in een nieuwe richting? En ze brengen een verscheidenheid aan stemmen mee om gebruiksscenario’s te definiëren en oplossingen te testen om het vertrouwen te centreren in plaats van te ondermijnen. Dat soort strategische duidelijkheid is wat we nu nodig hebben. Wanneer de adoptie van AI coherent is in plaats van chaotisch, kan het het onderwijs en het leren versterken in plaats van het te fragmenteren.
Auditi Chakravarty is de uitvoerend directeur van het Advanced Education Research and Development Fund.



