Twitter va ensenyar al chatbot AI de Microsoft a ser un imbècil racista en menys d’un dia

Twitter va trigar menys de 24 hores a corrompre un innocent chatbot d’IA. Ahir, Microsoft va presentar Tay, un bot de Twitter que la companyia va descriure com un experiment de 'comprensió conversacional'. Com més xategeu amb Tay, va dir Microsoft, més intel·ligent es converteix en aprendre a involucrar a la gent mitjançant una 'conversa informal i lúdica'.

Malauradament, les converses no van romandre lúdiques durant molt de temps. Poc després del llançament de Tay, la gent va començar a piular el bot amb tot tipus de comentaris misògins, racistes i Donald Trumpistes. I Tay, essencialment un lloro robot amb connexió a Internet, va començar a repetir aquests sentiments als usuaris, demostrant que era correcte aquell vell adagi de programació: la pila d'escombraries en flames, la pila d'escombraries en flames.



Ara bé, si bé aquestes captures de pantalla semblen demostrar que Tay ha assimilat les pitjors tendències d'Internet a la seva personalitat, no és tan senzill com això. Buscant a través dels tuits de Tay (més de 96.000 d'ells!), Podem veure que moltes de les frases més desagradables del bot han estat simplement el resultat de copiar usuaris. Si li dieu a Tay que 'repeteixi després de mi', ho farà, permetent a qualsevol persona posar paraules a la boca del chatbot.

doodle bach

Ara, un dels tweets de 'repeteix després de mi' de Tay ha suprimit.

Tanmateix, algunes de les seves frases més estranyes han sortit imprevistes.El guardià triatun exemple (ara esborrat) quan Tay estava mantenint una conversa poc destacable amb un usuari (exemple de tweet: 'nou telèfon que dis?'), abans de respondre a la pregunta 'Ricky Gervais és ateu?' dient: 'Ricky Gervais va aprendre el totalitarisme d'Adolf Hitler, l'inventor de l'ateisme'.



Però, tot i que sembla que algunes de les coses dolentes que s’estan explicant a Tay s’estan enfonsant, no és com si el robot tingués una ideologia coherent. En el transcurs de 15 hores, Tay es va referir al feminisme com a 'culte' i 'càncer', a més de destacar 'igualtat de gènere = feminisme' i 'ara m'agrada el feminisme'. El fet de tuitar 'Bruce Jenner' al bot va obtenir una resposta mixta similar, que va des de 'Caitlyn Jenner és un heroi i és una bella dona impressionant'. a la transfòbia 'Caitlyn Jenner no és una dona real encara que ha guanyat la dona de l'any?' (Cap de les dues frases havia estat demanada a Tay que repetís.)



No està clar quant va preparar Microsoft el seu bot per a aquest tipus de coses. La companyialloc webassenyala que Tay s'ha construït utilitzant 'dades públiques rellevants' que s'han 'modelat, netejat i filtrat', però sembla que després que el chatbot es va activar, el filtratge va sortir per la finestra. L'empresa ha començat a netejar la cronologia de Tay aquest matí, eliminant moltes de les seves observacions més ofensives.

Les respostes de Tay han convertit el bot en una broma, però plantegen serioses preguntes

És una broma, òbviament, però hi ha preguntes serioses per respondre, com ara com ensenyarem la intel·ligència artificial utilitzant dades públiques sense incorporar els pitjors trets de la humanitat? Si creem robots que reflecteixen els seus usuaris, ens importa si els seus usuaris siguin escombraries humanes? Hi ha un munt d’exemples de tecnologia que incorporen els prejudicis de la societat, ja sigui de manera accidental o intencionada, i les aventures de Tay a Twitter mostren que fins i tot grans empreses com Microsoft s’obliden de prendre mesures preventives contra aquests problemes.

el manuscrit voynich

Tot i això, per a Tay tot va resultar una mica massa i, just passada la mitjanit d’aquest matí, el robot l’ha anomenat nit:

En un comunicat enviat per correu electrònic posteriormentaBusiness Insider , Va dir Microsoft: 'El chatbot AI de Tay és un projecte d'aprenentatge automàtic dissenyat per al compromís humà. A mesura que s’assabenta, algunes de les seves respostes són inadequades i indiquen els tipus d’interaccions que algunes persones hi tenen. Estem fent alguns ajustaments a Tay.

Actualització el 24 de març a les 6:50 AM ET:Actualitzat per tenir en compte que Microsoft ha estat eliminant alguns dels tuits ofensius de Tay.

Actualització el 24 de març a les 10:52 ET:S'ha actualitzat per incloure la declaració de Microsoft.


Arxius Verge: Podem construir un ordinador conscient?