Home Nieuws Waarom het grootste risico van kunstmatige intelligentie in het hoger onderwijs de...

Waarom het grootste risico van kunstmatige intelligentie in het hoger onderwijs de erosie van het leren is

2
0
Waarom het grootste risico van kunstmatige intelligentie in het hoger onderwijs de erosie van het leren is

Publiek debat over kunstmatige intelligentie in het hoger onderwijs draait grotendeels om een ​​bekend probleem: bedriegen. Zullen studenten chatbots gebruiken om essays te schrijven? Kunnen docenten dat vertellen? Moeten universiteiten de technologie verbieden? omarm het?

Deze zorgen zijn begrijpelijk. Maar als we zo veel op bedrog focussen, gaan we voorbij aan de grotere transformatie die al aan de gang is, een transformatie die veel verder reikt dan het wangedrag van studenten en zelfs het klaslokaal.

De universiteiten nemen het over AI op vele terreinen van het institutionele leven. Sommige toepassingen zijn grotendeels onzichtbaar, zoals systemen die helpen bij het toewijzen van middelen, markeer studenten die “risico lopen”.optimaliseer de cursusplanning of automatiseer routinematige administratieve beslissingen. Andere toepassingen vallen meer op. Studenten gebruiken AI-tools om samen te vatten en te studeren, docenten gebruiken ze om opdrachten en syllabi samen te stellen, en onderzoekers gebruiken ze om code te schrijven, literatuur te scannen en urenlang saai werk in minuten te comprimeren.

Mensen kunnen kunstmatige intelligentie gebruiken om werktaken te bedriegen of over te slaan. Maar de vele toepassingen van kunstmatige intelligentie in het hoger onderwijs, en de veranderingen die zij met zich meebrengen, roepen een veel diepere vraag op: wat zal er met het hoger onderwijs gebeuren als machines steeds beter in staat worden het werk van onderzoek en leren te doen? Welk doel dient de universiteit?

De afgelopen acht jaar hebben we de morele implicaties van diepgaande betrokkenheid bij kunstmatige intelligentie bestudeerd als onderdeel van een gezamenlijk onderzoeksproject tussen Centrum voor Toegepaste Ethiek bij UMass Boston en dat Afdeling Ethiek en Nieuwe Technologieën. In één recent witboekWij stellen dat naarmate AI-systemen autonomer worden, de ethische belangen van AI groter worden, evenals de potentiële gevolgen ervan.

Naarmate deze technologieën beter worden in het produceren van kenniswerk – het ontwerpen van lessen, het schrijven van opdrachten, het voorstellen van experimenten en het samenvatten van moeilijke teksten – zorgen ze er niet alleen voor dat universiteiten productief. Ze riskeren het ecosysteem van leren en mentorschap waarop deze instellingen zijn gebouwd en waarvan ze afhankelijk zijn, uit te hollen.

Niet-autonome AI

Beschouw drie soorten kunstmatige-intelligentiesystemen en hun respectieve impact op het studentenleven:

AI-aangedreven software wordt al in het hoger onderwijs gebruikt toelatingsbeoordelingaankoop, academisch adviesen institutionele risicobeoordeling. Deze worden beschouwd als “niet-autonome” systemen omdat ze taken automatiseren, maar een persoon zit “op de hoogte” en gebruikt deze systemen als hulpmiddelen.

Deze technologieën kunnen dat een risico vormen voor de privacy en gegevensbeveiliging van studenten. Ze kunnen ook bevooroordeeld zijn. En het ontbreekt hen vaak aan voldoende transparantie om de oorzaken van deze problemen te achterhalen. Wie heeft toegang tot leerlinggegevens? Hoe wordt de “risicoscore” gegenereerd? Hoe voorkomen we dat systemen ongelijkheden reproduceren of bepaalde leerlingen behandelen als problemen die moeten worden aangepakt?

Deze vragen zijn serieus, maar conceptueel niet nieuw, althans niet in de informatica. Universiteiten beschikken doorgaans over compliance-kantoren, institutionele beoordelingsraden en bestuursmechanismen die zijn ontworpen om deze risico’s te helpen aanpakken of beperken, zelfs als ze soms niet aan deze doelstellingen voldoen.

Hybride AI

Hybride systemen omvatten een verscheidenheid aan tools, waaronder AI-ondersteunde chatbots voor bijles, gepersonaliseerde feedbacktools en geautomatiseerde schrijfondersteuning. Ze vertrouwen vaak op generatieve AI-technologieënvooral grote taalmodellen. Hoewel menselijke gebruikers de algemene doelen bepalen, zijn de tussenstappen die het systeem neemt om deze te bereiken vaak niet gespecificeerd.

Hybride systemen geven steeds meer vorm aan het dagelijkse academische werk. De studenten gebruiken ze als schrijfgenoten, docenten, brainstormpartnersen uitleg op aanvraag. Docenten gebruiken ze om rubrieken te genereren, lezingen voor te bereiden en syllabi te ontwerpen. Onderzoekers gebruiken ze om artikelen samen te vatten, commentaar te geven op concepten, experimenten te ontwerpen en code te genereren.

Dit is waar het ‘valsspelen’-gesprek thuishoort. Nu zowel studenten als docenten steeds meer afhankelijk zijn van technologie voor hulp, kun je je afvragen welk soort leerproces onderweg verloren kan gaan. Maar hybride systemen roepen ook complexere ethische vragen op.

Je hebt te maken met transparantie. AI-chatbots bieden natuurlijke taalinterfaces die het moeilijk maken om te bepalen wanneer u met een mens communiceert en wanneer u met een geautomatiseerde agent communiceert. Het kan vervreemdend en afleidend zijn voor degenen die met hen omgaan. Een student die materiaal voor een toets doorneemt, moet kunnen zien of hij met zijn onderwijsassistent praat of met een robot. Een student die feedback op een scriptie leest, moet weten of deze door de docent is geschreven. Alles wat minder is dan volledige transparantie zal in dergelijke gevallen vervreemdend werken voor alle betrokkenen en zal de focus van academische interacties verleggen van het leren naar de middelen of technologie van het leren. Dat hebben onderzoekers van de Universiteit van Pittsburgh aangetoond deze dynamiek veroorzaakt gevoelens van onzekerheid, angst en wantrouwen voor studenten. Dit zijn problematische resultaten.

Een ander ethisch vraagstuk betreft verantwoordelijkheid en intellectueel krediet. Als een docent AI gebruikt om een ​​opdracht voor te bereiden en een leerling AI om een ​​antwoord voor te bereiden, wie doet dan de evaluatie en wat wordt er precies geëvalueerd? Als feedback deels door machines wordt gegenereerd, wie is dan verantwoordelijk als deze misleidende, ontmoedigende of verborgen aannames verankert? En wanneer AI aanzienlijk bijdraagt ​​aan de synthese of het schrijven van onderzoek, zullen universiteiten dat ook doen behoefte aan duidelijkere normen rond auteurschap en verantwoordelijkheid– niet alleen voor studenten, maar ook voor de faculteit.

Ten slotte is er het cruciale probleem van de cognitieve belasting. AI kan slijtage verminderen, en dat is niet per definitie slecht. Maar het kan gebruikers ook afleiden van de onderdelen van het leren die competentie opbouwen, zoals het genereren van ideeën, het worstelen met verwarring, het herzien van een onhandig concept en het leren ontdekken van je eigen fouten.

Autonome agenten

De meest consequente veranderingen kunnen komen met systemen die minder op assistenten en meer op agenten lijken. Hoewel werkelijk autonome technologieën hoopvol blijven, is de droom van één onderzoeker “in een doos”– een agent AI-systeem dat zelfstandig onderzoek kan doen – wordt steeds realistischer.

Van agentische tools wordt verwacht dat ze dat ook doen “Maakt tijd vrij” voor werk die zich richt op meer menselijke capaciteiten zoals empathie en probleemoplossing. Bij het lesgeven kan dit betekenen dat de faculteit nog steeds les kan geven in de hoofdlijnen, maar dat een groter deel van het dagelijkse onderwijswerk kan worden overgedragen aan systemen die zijn geoptimaliseerd voor efficiëntie en schaalgrootte. Dienovereenkomstig wijst het onderzoekspad in de richting van systemen die de onderzoekscyclus steeds meer kunnen automatiseren. Op sommige domeinen verschijnt het al robotlaboratoria die continu draaienautomatiseer grote delen van experimenten en selecteer zelfs nieuwe tests op basis van eerdere resultaten.

Op het eerste gezicht klinkt dit misschien als een welkome verhoging van de productiviteit. Maar universiteiten zijn geen informatiefabrieken; het zijn praktijksystemen. Ze vertrouwen op een pijplijn van afgestudeerde studenten en academici die aan het begin van hun carrière leren lesgeven en onderzoek doen door aan hetzelfde werk deel te nemen. Als autonome actoren meer van de ‘routinematige’ verantwoordelijkheden op zich nemen die historisch gezien fungeerden als toegangspoort tot het academische leven, zou de universiteit door kunnen gaan met het produceren van cursussen en publicaties, terwijl ze stilletjes de kansenstructuren die excellentie in de loop van de tijd in stand houden, uitdunt.

Voor bachelors geldt dezelfde dynamiek, zij het in een ander register. Wanneer AI-systemen op verzoek uitleg, concepten, oplossingen en studieplannen kunnen bieden, is de verleiding groot om de meest uitdagende onderdelen van het leren te ontlasten. Voor de industrie die AI naar universiteiten pusht, kan het lijken alsof dit soort werk ‘inefficiënt’ is en dat studenten het beter door een machine kunnen laten doen. Maar het is juist de aard van deze strijd die duurzaam begrip opbouwt. De cognitieve psychologie heeft aangetoond dat studenten intellectueel groeien door het werk van het opstellen, herzien, falen, opnieuw proberen, worstelen met verwarring en het herzien van zwakke argumenten. Dit is het werk van leren leren.

Alles bij elkaar suggereren deze ontwikkelingen dat het grootste risico van automatisering in het hoger onderwijs niet simpelweg de vervanging van specifieke taken door machines is, maar de erosie van het bredere ecosysteem van praktijken die het onderwijs, onderzoek en leren lange tijd gaande hebben gehouden.

Een onaangenaam keerpunt

Welk doel dienen universiteiten dan in een wereld waarin kenniswerk steeds meer geautomatiseerd wordt?

Eén mogelijk antwoord beschouwt de universiteit in de eerste plaats als een motor voor het produceren van diploma’s en kennis. Er is het kernprobleem van output: behalen studenten een diploma? Worden er papieren en ontdekkingen gegenereerd? Als autonome systemen deze resultaten efficiënter kunnen leveren, dan heeft de instelling alle reden om deze over te nemen.

Maar een ander antwoord beschouwt de universiteit als iets meer dan een outputmachine, en erkent dat de waarde van het hoger onderwijs deels in het ecosysteem zelf ligt. Dit model kent intrinsieke waarde toe aan de pijplijn van kansen waardoor beginners experts worden, aan de mentorschapsstructuren waardoor oordeel en verantwoordelijkheid worden gecultiveerd, en aan het pedagogisch ontwerp dat productieve strijd aanmoedigt in plaats van deze weg te optimaliseren. Wat hier doorslaggevend is, is niet alleen of kennis en graden worden geproduceerd, maar ook hoe ze worden geproduceerd en welke soorten mensen, capaciteiten en gemeenschappen daarbij worden gevormd. In deze versie moet de universiteit functioneren als niets minder dan een ecosysteem dat op betrouwbare wijze menselijke expertise en oordeel vormt.

In een wereld waarin het kenniswerk zelf steeds meer wordt geautomatiseerd, zijn wij van mening dat universiteiten zich moeten afvragen wat het hoger onderwijs te danken heeft aan zijn studenten, zijn beginnende onderzoekers en de samenleving die het dient. De antwoorden zullen niet alleen bepalen hoe AI wordt toegepast, maar ook wat de moderne universiteit zal worden.


Nir Eisikovits is hoogleraar filosofie en directeur van het Centrum Toegepaste Ethiek te UMass Boston.

Jacob Burley is junior onderzoeker bij het Applied Ethics Center in UMass Boston.

Dit artikel is opnieuw gepubliceerd van Het gesprek onder een Creative Commons-licentie. Lezen origineel artikel.


Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in