Google dio de baja a trabajador que sugirió que su IA tenía sentimientos
El ingeniero Blake Lemoine publicó la transcripción de un diálogo con LaMDA, donde describió cómo experimenta el miedo y la incertidumbre.
N.E. / EFE
Desde los inicios de las Ciencias de la Computación, el ser humano ha querido mostrar que su inteligencia es superior a la que puede crearse artificialmente. No< obstante, hoy la inteligencia artificial (IA) gana partidas de ajedrez, se da cuenta cuando alguien está triste y hace los más complejos cálculos matemáticos en tiempo récord. Así, en cierta forma el tiempo le dio la razón al fallecido físico británico Stephen Hawking, quien había advertido que "los computadores pueden, en teoría, emular la inteligencia humana e incluso excederla".
Pero ahora la discusión es otra: ¿Puede ésta tener sentimientos?
Google acaba de dar de baja a uno de sus trabajadores por asegurar que su programa de IA es capaz de tener sentimientos, informó The New York Times. Se trata del ingeniero Blake Lemoine, que el 11 de junio publicó la transcripción de una conversación que tuvo con el sistema de IA de Google "Modelo de lenguaje para aplicaciones de diálogo" (LaMDA, por su sigla en inglés) bajo el título: ¿Tiene LaMDA sentimientos?
En el diálogo, LaMDA asegura que, a veces, experimenta "nuevos sentimientos" que no puede explicar "perfectamente" con el lenguaje humano.
Cuando Lemoine le pide a LaMDA describir uno de esos sentimientos, la IA contesta: "Siento como que estoy cayendo hacia un futuro desconocido que conlleva un gran peligro", frase que el ingeniero subrayó en la publicación.
El gigante tecnológico suspendió al ingeniero, asegurando que violó la política de confidencialidad de Google.
Según el New York Times, el día anterior a su baja Lemoine entregó a la oficina de un senador de EE.UU. documentos en los que aseguraba tener pruebas de que Google y su tecnología practicaban discriminación religiosa.
Según la empresa, sus sistemas imitan intercambios conversacionales y pueden hablar sobre diferentes temas, pero no tienen conciencia.
"Nuestro equipo, incluidos especialistas en ética y tecnólogos, revisaron lo que a Blake le preocupa según nuestros principios de inteligencia artificial y le informé que las pruebas no respaldan sus afirmaciones", dijo Brian Gabriel, portavoz de la empresa.
Google sostiene que cientos de sus investigadores han conversado con LaMDA, que es una herramienta interna, y que llegaron a una conclusión diferente a la de Lemoine.