Blake Lemoine recibirá su sueldo mientras se mantiene suspendido. Asegura que el software conocido como LaMDA puede ser considerado como un “colega” de la compañía.
Google decidió suspender de sus labores a un ingeniero que reveló información interna y que además afirma que un software de inteligencia artificial (IA) de la compañía era consciente. Es decir, que no solo tenía pensamientos propios, sino que también sentimientos.
El sujeto en cuestión es Blake Lemoine, un ingeniero de software sénior de la división de IA Responsable de Google cuya tarea implicaba revisar si un software de IA generaba lenguaje discriminatorio o discursos de odio.
Lemoine Seguirá recibiendo su sueldo durante la suspensión, la cual se gestó debido a que violó las políticas de confidencialidad que le impedían divulgar información interna. Asimismo, sus declaraciones fuesen desestimadas por la compañía.
El software al centro de todo es conocido por las siglas LaMDA (Language Model for Dialogue Applications) y a grandes rasgos es un sistema que crea bots de chats. Ese proceso se base en sus modelos de lenguaje grande más avanzados, los cuales imitan el habla a través de la revisión de billones de palabras de la red.
Con lo anterior en cuenta, Lemoine declaró que LaMDA le entregó respuestas convincentes tanto sobre sus derechos como sobre la ética de la robótica. Ante ello entregó un documento a los ejecutivos titulado “¿LaMDA es consciente?”, que incluía las transcripciones de sus conversaciones. Tras ser suspendido, el documento fue publicado en el portal Medium para demostrar que el software - o “colega” de Lemoine - “tiene sentimientos, emociones y experiencia subjetiva”.
Google desestima sus palabras
Un portavoz de Google recalcó que los sistemas de la inteligencia artificial solo imitan las conversaciones entre humanos, pero no tienen conciencia. “Nuestro equipo, incluidos especialistas en ética y tecnólogos, revisaron las preocupaciones de Blake sobre nuestros Principios de inteligencia artificial> y se le ha informado que la evidencia no respalda sus afirmaciones”, recalcaron desde Google.
“Algunos en la amplia comunidad de Inteligencia Artificial están considerando las posibilidades de largo plazo de una AI general o consciente, pero no tiene sentido hacerlo antropomorfizando los modelos de conversación actuales, los cuales no son conscientes”, agregó la compañía.
Un día antes de ser suspendido, el Washington Post abordó las preocupaciones de Lemoine e informó que el ingeniero también entregó documentos a la oficina de un senador estadounidense, planteando que contaba con evidencia de que Google y su tecnología participaban en discriminación religiosa.
En ese sentido, Lemoine es un veterano del ejército que se describe como “un sacerdote, exconvicto e investigador de I.A.” y que asegura que su objetivo es que Google buscase el consentimiento de LaMDA antes de realizar sus experimentos. Además clama que considera que el software actúa como “un niño de 7 u 8 años” y que sus creencias religiosas fueron discriminadas por parte del departamento de recursos humanos de Google. “Han cuestionado repetidamente mi cordura. Dijeron: ‘¿Has sido revisado por un psiquiatra recientemente?’”, dijo en conversación con el New York Times.