Trabajadores publican carta abierta exigiendo protección para informantes que hablen contra la inteligencia artificial

Trabajadores de inteligencia artificial publican carta abierta exigiendo protección para informantes que denuncien.
Trabajadores de inteligencia artificial publican carta abierta exigiendo protección para informantes que denuncien.

Un grupo de empleados y exempleados presentó su preocupación exigiendo más transparencia ante la falta de supervisión y los incentivos financieros que tienen las compañías que impulsan a esta tecnología.

Un grupo de empleados actuales y también de antiguos trabajadores de empresas que lideran los avances en inteligencia artificial, como son los casos de OpenAI y Google DeepMind, firmaron una carta abierta pidiendo mayor transparencia y protección en contra de represalias que podrían tomarse hacia aquellos que expresen preocupaciones sobre los riesgos de la IA.

La carta, respaldada por destacados expertos en IA, resalta la falta de supervisión gubernamental efectiva y los incentivos financieros que impulsan a las tecnológicas a invertir en esta tecnología.

También advierten que la búsqueda desenfrenada de sistemas de IA potentes puede llevar a la difusión de desinformación, la exacerbación de la desigualdad y la pérdida de control humano sobre sistemas autónomos.

La carta fue publicada luego de una investigación que planteó que OpenAI, la compañía detrás de ChatGPT, intentó silenciar a exempleados con acuerdos de no desprestigio. De no firmar, perderían las acciones que adquirieron al sumarse a OpenAI.

Aunque el CEO de la compañía, Sam Altman, planteó que ese tipo de cláusulas ya fue eliminada, los firmantes igual exigen que las empresas de IA se comprometan a no tomar represalias contra empleados que expresen preocupaciones de seguridad, apoyar un sistema anónimo para denunciantes, permitir una cultura de crítica abierta y evitar acuerdos que restrinjan a los empleados de hablar.

Desde OpenAI respondieron a la carta en un mensaje a Bloomberg asegurando que están “orgullosos” de sus antecedentes “a la hora de proporcionar los sistemas de IA más capaces y seguros, y creemos en nuestro enfoque científico para abordar los riesgos. Coincidimos en que el debate riguroso es crucial dado el significado de esta tecnología, y continuaremos colaborando con gobiernos, sociedad civil y otras comunidades en todo el mundo”.

COMPARTIR NOTA