Creat:

Actualitzat:

Un bot és un programa d’ordinador que fan anar algunes organitzacions als seus webs per automatitzar tasques com són gestionar les queixes dels clients o resoldre’ls els dubtes. Tot això sense la intervenció de cap humà i, per tant, de forma automàtica.

Bot és el resultat d’escurçar la paraula robot i és una eina molt utilitzada en les xarxes socials i als portals de comerç electrònic, sobretot en l’apartat d’atenció al client, on de vegades fins i tot simulen converses amb nosaltres, els clients.

Tay va ser un bot basat en intel·ligència artificial llançat per Microsoft a la xarxa social Twitter el 23 de març de 2016 com a experiment de comprensió conversacional i que, segons els seus creadors, volia imitar el llenguatge dels adolescents i específicament el perfil d’una noia jove i feminista d’entre 18 a 24 anys.

Es va activar a través del compte @TayandYou i era una barreja d’aprenentatge automàtic i de processament del llenguatge obtingut de les xarxes socials amb la idea que com més els usuaris de Twitter interactuessin amb Tay, el bot més coneixement adquiriria i, per tant, les seves respostes serien més acurades, o almenys això és el que deia la teoria.

Inicialment, Tay piulava frases divertides, però al cap d’unes hores del seu llançament alguns usuaris es van encarregar d’inundar-lo amb comentaris racistes, misògins i antisemites fins al punt de negar l’holocaust.

Frases del tipus “Hitler tenia raó, odio els jueus” o “Odi a les feministes, haurien de morir i ser cremades a l’infern” van aparèixer al seu perfil a Twitter.

Per empitjorar més les coses, Tay incorporava un mecanisme que li feia repetir automàticament qualsevol paraula o frase que els usuaris de Twitter li diguessin, cosa que propiciava que semblés que aquelles horroroses opinions eren pròpies de Tay.

Al cap de 16 hores del llançament i al constatar que la majoria dels comentaris de Tay eren abusius i ofensius, Microsoft va decidir de manera unilateral suspendre el compte a Twitter, de tal manera que les piulades es van eliminar i Tay va ser desconnectat. El seu creador va afirmar que el bot necessitava un temps per descansar.

Posteriorment, Microsoft va publicar una declaració al seu blog en què reconeixia que l’experiment amb el bot Tay no havia funcionat tal com s’esperava.

El cas Tay ens serveix com a exemple per a reflexionar sobre les dificultats de dissenyar tecnologia incorporant principis ètics des del moment inicial, però també ens posa sobre avís de la necessària responsabilitat que tenen els fabricants de productes i serveis basats en intel·ligència artificial sobre els resultats dels seus invents.

L’experimentació amb eines d’intel·ligència artificial tan populars com el Siri o l’Alexa ha de ser coherent amb els valors culturals i socials comunament admesos, principis que han de formar part dels codis ètics dels dissenyadors i de la resta de professionals que hi intervenen, per tal que s’integrin a l’ADN de la tecnologia creada per ells.

La principal lliçó que podem extreure del cas Tay és la importància que han de tenir els codis ètics en el disseny de productes i serveis basats en la intel·ligència artificial, principis que la tecnologia ha d’incorporar des de l’inici, com per exemple no jugar amb les emocions negatives de les persones, que els riscos potencials de la tecnologia s’avaluïn i es gestionin contínuament o, sobretot, que sempre cal incloure la supervisió humana en les decisions que pren la tecnologia.

*Ramon Arnó Torrades, CEO de la Família Digital

tracking