Utilitzar la intel·ligència artificial per entendre per què els estudiants estan lluitant

Els investigadors de Stanford van crear un programa per ajudar quan els estudiants es queden atrapats en l’aprenentatge digital a un mateix ritme. IA per entendre els estudiants.

Els sistemes d’aprenentatge basats en ordinador i a un mateix ritme tenen el potencial d’ampliar les oportunitats educatives per a milions d’estudiants incalculables, especialment als llocs on els professors humans són escassos.

Però, malgrat les nombroses plataformes d’aprenentatge noves, com Brain Pop o Education Galaxy, els programes actuals no poden oferir cap consell quan un estudiant s’enfosa i comença a “girar”.

Un professor humà sovint pot esbrinar el problema i oferir una solució, com ara que l’alumne torni a una lliçó anterior. Però els ordinadors no estan equipats per resoldre tots els possibles motius pels quals una persona s’ha quedat encallat. L’estudiant només ha endevinat el seu camí a través de les lliçons de prerequisits, sense dominar-les realment? L’alumne necessita ajuda amb la tecnologia? O l’activitat es va dissenyar involuntàriament de manera que condemna l’estudiant al fracàs?

IA per entendre els estudiants

Dos investigadors de Stanford, que treballen amb una organització sense ànim de lucre que subministra tauletes a nens en zones de crisi, han provat un programa d’aprenentatge automàtic que no només prediu quan és probable que un estudiant comenci a girar, sinó que també recomana una solució.

La gent s’encalla, cosa que pot ser molt frustrant, i necessita ajuda externa”, va dir Tong Mu, un estudiant graduat en enginyeria elèctrica a Stanford que va treballar en el projecte. “Un professor humà assegut al costat de l’alumne sovint pot esbrinar la intervenció adequada, però els professors són massa escassos en molts llocs i els sistemes actuals no ofereixen realment aquest tipus d’ajuda”.

Llegir el document: Towards Suggesting Actionable Interventions for Wheel-Spinning Students

Mu i Emma Brunskill, professors associats d’informàtica a la Universitat de Stanford i afiliats de Stanford Institute for Human-Centered AI, es van unir amb Andrea Jetten, una educadora de War Child Holland, per provar el seu programa. War Chil Holland envia tauletes i programari d’aprenentatge a escoles primàries de regions en conflicte des del Sudan i el Txad fins a Bangla Desh.

Per entrenar el seu model d’IA, Mu i Brunskill li van fer analitzar les dades de rendiment de 1.170 escolars ugandesos que havien utilitzat les tauletes per aprendre habilitats de lectura en anglès mitjançant vídeos i minijocs.

Al voltant de la meitat dels estudiants van fer girar les rodes almenys una vegada, cosa que els investigadors van definir com a mínim 10 intents per respondre una pregunta. El gir de les rodes indica que l’estudiant s’escapa i endevina, i pot ser un bon predictor de problemes addicionals al llarg del camí. Com que la classe mitjana d’Uganda té 114 estudiants, però, els professors només tenien una capacitat limitada per oferir ajuda individual.

El nou model va poder predir si un nen cauria en gir de rodes, fins a cert punt fins i tot abans que el nen hagués començat una nova lliçó. Entre les pistes que fa servir hi ha el nombre d’intents que va fer un estudiant per tractar problemes de prerequisits i quant de temps ha passat des que l’estudiant va trobar l’assignatura per última vegada. Com més giri una persona a les lliçons anteriors, per exemple, més probabilitats hi haurà de fer-ho en les següents.

Proves contra humans

La veritable pregunta, però, era si el sistema podia diagnosticar la naturalesa del problema i recomanar la intervenció adequada.

Els investigadors van utilitzar una eina popular en l’aprenentatge automàtic interpretable, els valor de Shapley, per proporcionar atribucions de crèdit a les característiques del model que ajuden a predir el gir de les rodes. Algunes d’aquestes característiques suggereixen accions de correcció immediates, com si un estudiant té dificultats en una habilitat prèvia per al tema actual. Els investigadors van comparar les recomanacions del seu sistema, com ara fer que un estudiant torni a una lliçó anterior o obtenir consells sobre la mecànica del joc, amb les fetes per un expert humà.

Van provar l’eina en sis estudiants hipotètics construïts a partir de les dades històriques de rendiment. En quatre dels sis casos, el model i l’expert humà van fer les mateixes recomanacions. En els dos casos en què estaven en desacord, va ser per motius aliens al control del sistema. En un cas, el sistema havia rebut la informació incorrecta sobre els requisits previs necessaris. En l’altra, el gir de les rodes va derivar de problemes de com es va dissenyar l’activitat.

Brunskill diu que el model podria tenir aplicacions educatives àmplies per a les aules de les nacions empobrides, però també per a les riques. També es podria utilitzar per millorar la formació en el lloc de treball i la formació contínua d’adults.

L’objectiu no és que els models d’aprenentatge automàtic substitueixin els professors humans, diu, sinó que col·laborin proporcionant recomanacions quan un estudiant té dificultats. Com més un ordinador pugui diagnosticar problemes importants dels estudiants, més fàcil serà per a un nombre limitat de professors humans ajudar a un gran nombre d’estudiants.

Penso en aquest esforç com els humans i la IA treballant junts per donar suport a un estudiant i oferir una educació de qualitat“, diu Brunskill. “Estem pensant a crear ecosistemes per donar suport a l’aprenentatge que incloguin professors, pares i tutors d’IA. La IA té limitacions, igual que els humans, però la IA té el potencial d’identificar quan un sistema no funciona bé i els motius d’això“.

La missió de Stanford HAI és avançar en la investigació, l’educació, la política i la pràctica de la IA per millorar la condició humana. Aprèn més.

Llegit a:

Stanford HAI