ChatGPT: el plagi és només l’arbre que amaga el bosc
ChatGPT és només un dels molts sistemes d’IA que ja existeixen que transformaran la societat, i podem esperar que apareguin més aviat. En lloc d’intentar impedir que els estudiants utilitzin ChatGPT, hem de reformar la nostra manera d’ensenyar.
El debat sobre les promeses i els riscos de la intel·ligència artificial (IA) es va sacsejar el 30 de novembre de 2022, quan l’empresa OpenAI va llançar ChatGPT. ChatGPT és una versió millorada i gratuïta de GPT-3, un sistema potent llançat el 2020 que genera text. Això s’anomena model de llenguatge. El GPT-3 es va utilitzar per escriure un article d’opinió a The Guardian, argumentant que la IA no destruirà els humans.
Al desembre, més d’un milió de persones van utilitzar ChatGPT i van publicar codis informàtics generats pel sistema, programes de receptes setmanals, presentacions de treballs i assaigs en línia.
ChatGPT i GPT-3 també poden resoldre problemes matemàtics, corregir la gramàtica o simplificar textos complicats. Actualment, ChatGPT ja no pot respondre a la sol·licitud; el lloc no té la capacitat de suportar el nombre excessiu d’usuaris.
Després d’haver estat entrenats en una gran quantitat de dades, inclosos llocs web, llibres i Wikipedia, aquests sistemes poden imitar diversos estils literaris, incloent explicar en estil bíblic com treure un sandvitx d’un VCR, escriure poemes a l’estil de Baudelaire o produir guions per a escenes del programa d’èxit Friends.
Per primera vegada, la societat entén plenament la magnitud de les transformacions a venir. No obstant això, gran part del debat públic sobre ChatGPT se centra al voltant del problema del plagi escolar. La por generalitzada que els estudiants utilitzin ChatGPT per escriure els seus articles de trimestre distreu el públic d’assumptes molt més importants.
Experts en lleis i polítiques d’intel·ligència artificial, (…) donar llum sobre els últims sistemes d’IA i els riscos reals que presenten.
Comprensió del models de llenguatge
Els models de llenguatge són sistemes d’IA entrenats per estimar la probabilitat que una seqüència de paraules aparegui en un text. S’utilitzen de diverses maneres, com ara xats virtuals, aplicacions de missatgeria i programari de traducció. Penseu, per exemple, en la vostra aplicació de missatgeria de suggereix la paraula següent de la frase que heu començat. Alguns models de llenguatge s’anomenen gran models de llenguatge, quan s’entrenen sobre un nombre molt elevat de paràmetres, tot i que no hi ha un llindar específic per a aquest nom.
Aquests models van ser revolucionats amb la invenció d’una nova tecnologia, anomenada transformador (model d’aprenentatge automàtic), l’any 2017. Han sorgit molts models de llenguatge impressionants que utilitzen transformadors, com ara GPT-3, Bloom, LaMDA, Megatron-Turing NLG i PaLM. Mentre que ChatGPT s’ha entrenat en 175.000 milions de paràmetres, el PaLM de Google s’ha entrenat en 540.000 milions i pot explicar acudits i produir un raonament lògic sofisticat. Els transformadors també s’han utilitzat per crear sistemes que generen imatges a partir de text, com DALL-E 2, que pot produir una imatge creïble d’un coala jugant (i anotant!) a bàsquet. De fet, alguns artistes ara utilitzen la IA per generar les seves obres d’art.
El debat del plagi no és nou
Actualment, la IA està revolucionant el món laboral. Les persones sense formació en programació poden produir codis informàtics, qualsevol pot generar mapes, diapositives, dibuixos, fotos, pàgines web, textos o documents legals. Els professionals del demà, sens dubte, confiaran en aquestes eines. Cal fer-se, doncs, la pregunta: quina és la finalitat de l’educació sinó preparar els alumnes per a la societat i el treball?
Un debat sobre el plagi va sorgir als anys 90 quan Internet va créixer. Professors universitaris es van queixar que els seus estudiants copiaven informació de llocs web i revistes electròniques, o demanaven ajuda en fòrums en línia. Per descomptat, no citar les fonts és problemàtic; això s’anomena plagi. Però els primers tramposos que van utilitzar Internet van aprendre a buscar a la Web i ordenar informació. De fet, des d’aleshores el sistema escolar s’ha adaptat per posar èmfasi en les habilitats per recollir, analitzar, sintetitzar i avaluar l’exactitud i la utilitat de la informació. Aquesta és una de les raons per les quals els adults joves actuals són més resistents a la desinformació que els seus grans.
ChatGPT és només la punta de l’iceberg
Avui, la IA introdueix una revolució encara més gran que la provocada per l’arribada d’Internet. ChatGPT és només un dels molts sistemes d’IA que ja existeixen que transformaran la societat, i podem esperar que apareguin més aviat. Actualment, els tres ingredients dels sistemes d’IA (potència de càlcul, algorismes i dades) estan millorant a un ritme vertiginós. ChatGPT és només la punta de l’iceberg i hem de preparar els estudiants per als canvis socials significatius que provocarà la IA.
En lloc d’intentar impedir que els estudiants utilitzin ChatGPT, hem de reformar la nostra manera d’ensenyar. Aquesta reforma no hauria de tractar de trobar tasques enginyoses per a les quals els estudiants no puguin utilitzar ChatGPT. Hem d’assegurar-nos que els estudiants puguin utilitzar correctament els sistemes d’IA.
ChatGPT es forma en part a partir de comentaris humans. Els humans llegeixen la resposta produïda pel sistema i jutgen si és veraç i informativa. Per a alguns temes, especialment aquells que requereixen una experiència en profunditat, les respostes poden semblar plausibles als humans, però contenen imprecisions, que es veuen reforçades. Amb el temps, serà encara més difícil per als humans notar desviacions subtils de la veritat. Els professors podrien crear tasques que requereixin l’ús de ChatGPT, demanant als estudiants que comprovin fets menys coneguts i proporcionin informació més subtil.
Una crida a la precaució
Però sobretot, hem de conscienciar els nostres alumnes dels riscos que presenten aquests sistemes. S’ha demostrat que els gran models de llenguatge reprodueixen biaixos i prejudicis, donen consells potencialment perillosos i faciliten la manipulació del consumidor. Aviat, aquest patrons podrien conduir a una manipulació massiva. També poden ser la font d’incompliments legals de la privadesa de les dades i dels drets de propietat intel·lectual, que els estudiants haurien de vigilar.
A més, els creadors i usuaris de sistemes d’IA basats en transformadors descobreixen regularment que aquests sistemes són capaços de realitzar tasques, de vegades problemàtiques, de les quals no eren conscients. Per exemple, els investigadors han demostrat que poden utilitzar un model de llenguatge per calcular la probabilitat que els acusats reincidirien, una tasca per a la qual el model no va ser entrenat intencionadament. Els desenvolupadors dels primers grans models de llenguatge no esperaven que fossin capaços de fer aritmètica o raonament. Aquesta imprevisibilitat de les tasques assolibles amb aquests sistemes augmenta el risc que s’utilitzin amb finalitats nefastes o que es comportin en contra dels interessos del seus usuaris.
Els alumnes s’han de preparar. Han d’aprendre a avaluar críticament els sistemes d’IA, de la mateixa manera que la generació anterior va haver d’aprendre a ordenar la informació en línia. També poden informar de qualsevol error informàtic o comportament inesperat que vegin per ajudar-los a protegir-los. A més, haurien de participar en converses democràtiques per determinar quins valors i principis haurien de guiar els comportaments dels sistemes d’IA.
I encara que no necessiten aprendre determinades habilitats que s’automatitzaran, haurien d’entendre els fonaments bàsics de com funciona la IA i els riscos que comporta.
Per Claire Boine, investigadora associada, Universitat d’Ottawa i Céline Castets-Renard, professora de dret a la Universitat d’Ottawa i titular de la Càtedra “Law, Accountability and Social Trust in AI”, Université Toulouse 1 Capitole.
Aquest article es va publicar a The Conversation sota una llicència Creative Commons. Llegir l’article original.
Llegit a: