Creat:

Actualitzat:

Dimarts, la ministra de Treball espanyola, en ocasió de l’aprovació de la llei que regula la relació laboral dels anomenats riders, els encoratjava a “no tenir por de la intel·ligència artificial”. Ho deia, segons vaig entendre, a propòsit dels algoritmes que fan servir les respectives empreses per controlar el rendiment d’aquests treballadors. Això em va recordar una notícia que vaig escoltar fa algunes setmanes: el sistema d’intel·ligència artificial encarregat de controlar la gestió de personal d’una empresa tecnològica de Silicon Valley (Califòrnia) va decidir pel seu compte, sense l’autorització de cap directiu, l’acomiadament d’un empleat. La persona acomiadada potser no era la més brillant de la plantilla, però arribava puntual, no era conflictiva i feia correctament la feina que tenia encomanada. Però es veu que no li era simpàtica a l’algoritme que controlava el programa de recursos humans, i el propi sistema el va fer fora d’un dia a l’altre. En investigar el cas, es van adonar que l’engi­nyer que havia programat l’algoritme li havia encomanat els seus prejudicis personals, de manera que aquest biaix humà va contaminar el procés de tractament de dades i, consegüentment, la manera com el sistema d’intel·ligència artificial prenia determinades decisions. No se sap si l’enginyer ho va fer voluntàriament o no, però el cas és que va demostrar que tenim ja la capacitat de programar algoritmes que executin els nostres desitjos més foscos sense la interferència de cap emoció i sense cap remordiment. Certament, hem fet un pas de gegant per esdevenir els tirans més despietats que hagi vist mai la història.

tracking