Londa Schiebinger: ‘Hi ha un biaix inconscient de gènere en l’algoritme de Google’

  • Professora d’Història de la Ciència de la Universitat de Stanford i directora de 'Gendered Innovations'

VilaWeb
José Vicente Bernabeu
07.02.2017 - 05:01

Parlem un poc sobre el seu projecte, Gendered Innovations. Per què es va crear?
Estava molt interessada a saber com podíem utilitzar l’anàlisi de gènere per a avançar i innovar en ciència i tecnologia. Abans d’això sempre parlàvem sobre els prejuís de gènere. Però vaig descobrir que era molt important capgirar-ho i implicar-hi científics i enginyers perquè estan interessats en les novetats, i aquest projecte permet utilitzar el gènere per a veure coses noves. I això és el que ens interessava aconseguir.

Com funciona el projecte?
Vaig començar l’any 2005 en la Universitat de Stanford i més avant, el 2011, la Unió Europea em va demanar que participara amb ells. Així doncs, la idea va prendre forma el 2005, el projecte va començar realment el 2009 i la Unió Europea s’hi va unir el 2011. El projecte està en marxa a Europa, als Estats Units, a Canadà i ara s’hi ha unit Corea del Sud. Tenim sis codirectors, si no m’equivoque, i a més tenim la col·laboració de més de vuitanta persones expertes en tots els camps de la ciència i enginyeria per a ocupar-se dels casos d’estudi específics que desenvolupem, de la metodologia i els estudis clau i, això és l’important, de la manera com integrar l’anàlisi de sexe i gènere en la investigació.

Podria parlar-me d’aquests estudis?
La metodologia de l’anàlisi de sexe i de gènere no és present en el pla d’estudis universitari, encara que és molt important. La primera cosa que va fer el nostre grup va ser desenvolupar dotze mètodes i presentar-los en el nostre lloc web. Sabíem que seria molt important crear casos d’estudi o exemples concrets en què l’anàlisi de sexe i gènere oferira quelcom a la investigació. Un dels meus exemples favorits és la traducció automàtica. Si entrem en Google Translate, que és el sistema de traducció automàtica principal als Estats Units, veiem que utilitza el pronom masculí per defecte. SYSTRAN, el principal a Europa, fa el mateix. Si introduesc un article sobre mi en Google Translate per defecte tradueix «ell va dir» en compte de «ella va dir». Ens vam preguntar per què ocorria això i vam descobrir que, com que Google Translate funciona mitjançant un algoritme, el problema és que «ell va dir» apareix en Internet el quàdruple de vegades que «ella va dir», així doncs, la màquina encertarà més vegades si tria «ell va dir». L’algoritme està preparat per a actuar d’aquesta manera. De totes maneres, vam descobrir que s’havia produït un gran canvi en la llengua anglesa des de 1968 fins al present, i la proporció de repeticions de «ell va dir» enfront de «ella va dir» havia passat des de 4 a 1 fins a 2 a 1. Malgrat això, la traducció no té això en compte. Així doncs, ens vam adreçar a Google i els vam dir: «Escolteu, què passa amb això?», i ens van contestar: «Vaja, no en teníem ni idea!». Van reconèixer que hi ha un biaix inconscient de gènere en l’algoritme de Google. No era la seua intenció, i ara tenen molta gent intentant arreglar-ho.

Com es pot arreglar?
Aquesta és la qüestió! Aquesta és la part del descobriment. Si podem arreglar-ho, serà un gran avenç. Trobe que els algoritmes en general són un problema perquè si hi ha algun tipus de biaix inconscient en les dades, els resultats de l’algoritme ho reflectiran. Així doncs, encara que Google té polítiques d’empresa per a promoure la igualtat de gènere, el seu producte conté un biaix inconscient indesitjat. Ara que ho saben poden intentar arreglar-ho. De fet hi ha unes conferències a Harvard al novembre en què, una vegada més, especialistes en computació discutiran com inserir alguns aspectes de responsabilitat social en l’algoritme. Però els algoritmes són populars perquè són formes matemàticament rigoroses de fer les coses sense intervenció humana, es tracta exclusivament d’aprenentatge automàtic. Llavors, si es vol intervenir en el procés, com es pot fer correctament? És una oportunitat enorme per a aprendre, perquè cada vegada trobem més exemples d’aquest tipus de biaixos inconscients de gènere en els algoritmes. La solució, en aquest cas, encara està per arribar. Però tenim molt bons exemples com les malalties cardíaques en les dones, l’osteoporosi en els homes… Pel que fa a les malalties del cor, només les estudiàvem en homes i no ens adonàvem que són la causa més important de mort en dones, no teníem tota aquesta informació. Ara ho sabem, i aquesta és, una vegada més, la innovació: ajudar més gent centrant-nos tant en homes com en dones.

Vostè també ha treballat en el camp de la investigació biològica i defensa que és molt important tenir en compte el sexe de les cèl·lules. Per què no es fa?
És un factor que la gent simplement no considerava. No hauríem de tenir en compte el cost perquè el treball amb cèl·lules és el primer pas de la investigació i és molt econòmic en comparació amb el procés complet. Si s’utilitzen cèl·lules per a desenvolupar un medicament, que pot costar milions de dòlars, aquest és només el primer pas. I si cometem errors en el primer pas, haurem malgastat milions de dòlars. És molt important començar correctament. Per tant, si és possible conèixer el sexe de les cèl·lules, la ignorància no és una excusa.

Llegiu l’entrevista completa en la web de Mètode.

José Vicente Bernabeu. Periodista, París.

Què és Mètode?

Recomanem

La premsa lliure no la paga el govern. La paguem els lectors.

Fes-te de VilaWeb, fem-nos lliures.

Fer-me'n subscriptor
des de 75€ l'any