Sabem que les dades reflecteixen els biaixos del processos a la societat. Això vol dir que hem de centrar-nos en dissenyar mètodes que s’adaptin millor a la realitat.

Els investigadors del MIT han descobert que, si un determinat tipus de model d’aprenentatge automàtic s’entrena mitjançant un conjunt de dades desequilibrat, el biaix que aprèn és impossible de solucionar després del fet. Van desenvolupar una tècnica que indueix directament l’equitat en els models d’aprenentatge automàtic, per molt desequilibrat que fos el conjunt de dades d’entrenament, que pot augmentar el rendiment del model en tasques posteriors.

Injectar equitat en els models d’aprenentatge automàtic

Si s’entrena un model d’aprenentatge automàtic mitjançant un conjunt de dades desequilibrat, com ara un que conté moltes més imatges de persones amb pell més clara que persones amb pell més fosca, hi ha un risc seriós que les prediccions del model siguin injustes quan es desplega al món real.

Però aquesta és només una part del problema. Els investigadors del MIT han descobert que els models d’aprenentatge automàtic que són populars per a tasques de reconeixement d’imatges en realitat codifiquen biaix quan s’entrenen amb dades desequilibrades. Aquest biaix dins del model és impossible de solucionar més endavant, fins i tot amb tècniques d’última generació per millorar l’equitat, i fins i tot quan es re-entrena el model amb un conjunt de dades equilibrat.

Així, els investigadors van idear una tècnica per introduir l’equitat directament a la representació interna del model. Això permet que el model produeixi resultats justos fins i tot si s’entrena amb dades injustes, cosa que és especialment important perquè hi ha molts pocs conjunts de dades ben equilibrats per a l’aprenentatge automàtic.

La solució que van desenvolupar no només condueix a models que fan prediccions més equilibrades, sinó que també millora el seu rendiment en tasques posteriors com el reconeixement facial i la classificació d’espècies animals.

“En l’aprenentatge automàtic, és habitual culpar les dades del biaix dels models. Però no sempre tenim dades equilibrades. Per tant, hem de trobar mètodes que solucionin el problema amb dades desequilibrades”, diu l’autor principal Natalie Dullerud, estudiant de postgrau del Healthy ML Group del Computer Science and Artificial Intelligence Laboratory (CSAIL) del MIT.

Entre els coautors de Dullerud hi ha Kimia Hamidieh, estudiant de postgrau del Healthy ML Group; Karsten Roth, un antic investigador visitant que ara és estudiant de postgrau a la Universitat de Tubingen; Nicolas Papernot, professor ajudant al Departament d’Enginyeria Elèctrica i Informàtica de la Universitat de Toronto; i l’autor principal Marzyeh Ghassemi, professor assistent i cap del grup Healthy ML. La recerca es presentarà a la International Conference on Learning Representations.

Definició d’equitat

La tècnica d’aprenentatge automàtic que van estudiar els investigadors es coneix com a aprenentatge mètric profund, que és una forma àmplia d’aprenentatge de representació. En l’aprenentatge mètric profund, una xarxa neuronal aprèn la similitud entre objectes cartografiant fotos similars molt juntes i fotos diferents molt separades. Durant l’entrenament, aquesta xarxa neuronal mapeja imatges en un “espai d’inserció” on una mètrica de similitud entre fotos correspon a la distància entre elles.

Per exemple, si s’utilitza un model d’aprenentatge mètric profund per classificar les espècies d’ocells, maparà fotos de pinsans daurats junts en una part de l’espai d’incrustació i cardenals junts en una altra part de l’espai d’incrustació. Un cop entrenat, el model pot mesurar eficaçment la similitud de noves imatges que no ha vist abans. Aprendria a agrupar imatges d’una espècie d’ocell no vista molt a prop, però més lluny dels cardenals o dels pinsans daurats dins de l’espai d’incrustació.

Les mètriques de semblança que aprèn el model són molt robustes, per això s’utilitza sovint l’aprenentatge mètric profund per al reconeixement facial, diu Dullerud. Però ella i els seu col·legues es van preguntar com determinar si una mètrica de similitud està esbiaixada.

Sabem que les dades reflecteixen els biaixos del processos a la societat. Això vol dir que hem de centrar-nos en dissenyar mètodes que s’adaptin millor a la realitat”, diu Ghassemi.

Els investigadors van definir dues maneres en què una mètrica de similitud pot ser injusta. Utilitzant l’exemple del reconeixement facial, la mètrica serà injusta si és més probable que els individus amb cares de pell més fosca s’apropin els uns als altres, fins i tot si no són la mateixa persona, que no pas si aquestes imatges fossin persones amb cares de pell més clara. En segon lloc, serà injust que les característiques que aprèn per mesurar la semblança són millors per al grup majoritari que per al grup minoritari.

Els investigadors van realitzar diversos experiments amb models amb mètriques de similituds injustes i no van poder superar el biaix que el model havia après en el seu espai d’inserció.

Això fa bastant por perquè és una pràctica molt habitual que les empreses alliberin aquests models d’incrustació i després la gent els afini per a alguna tasca de classificació aigües avall. Però no importa el que facis aigües avall, simplement no pots solucionar els problemes d’equitat que es van induir a l’espai d’inserció”, diu Dullerud.

Fins i tot si un usuari torna a entrenar el model en un conjunt de dades equilibrat per a la tasca posterior, que és el millot escenari per solucionar el problema d’equitat, encara hi ha llacunes de rendiment d’almenys un 20 per cent, diu.

L’única manera de resoldre aquest problema és assegurar-se que l’espai d’inserció és just per començar.

Aprenentatge de mètriques separades

La solució dels investigadors, anomenada Partial Attribute Decorrelation (PARADE), consisteix a entrenar el model per aprendre una mètrica de similitud separada per a un atribut sensible, com ara el to de la pell, i després descorrelacionar la mètrica de similitud del to de la pell amb la mètrica de similitud objectiu. Si el model està aprenent les mètriques de diferents cares humanes, aprendrà a mapejar cares similars molt juntes i cares dissemblants allunyades utilitzant característiques diferents del to de pell.

D’aquesta manera, es pot descorrelacionar qualsevol nombre d’atributs sensibles a partir de la mètrica de similitud orientada. I com que la mètrica de similitud per a l’atribut sensible s’aprèn en un espai d’inserció separat, es descarta després de l’entrenament, de manera que només queda la mètrica de semblança objectiu al model.

El seu mètode és aplicable a moltes situacions perquè l’usuari pot controlar la quantitat de decorrelació entre mètriques de semblança. Per exemple, si el model diagnosticarà el càncer de mama a partir d’imatges de mamografia, és probable que un metge vulgui que una mica d’informació sobre el sexe biològic quedi a l’espai d’inserció final perquè és molt més probable que les dones tinguin càncer de mama que els homes, explica Dullerud.

Van provar el seu mètodes en dues tasques, el reconeixement facial i la classificació d’espècies d’ocells, i van trobar que reduïa les llacunes de rendiment causades pel biaix, tant a l’espai d’inserció com a la tasca aigües avall, independentment del conjunt de dades que utilitzaven.

A partir d’ara, Dullerud està interessat a estudiar com forçar un model d’aprenentatge mètric profund per aprendre bones característiques en primer lloc.

Com auditeu correctament l’equitat? Aquesta és una pregunta oberta ara mateix. Com es pot dir que un model serà just, o que només serà just en determinades situacions, i quines són aquestes situacions? Aquestes són preguntes que m’interessen molt avançar”, diu.

Font:

Injecting fairness into Machine-learning models, MIT EECS

Equitat en els models d’aprenentatge automàtic