“Podría provocar la extinción humana”: expertos advierten sobre la inteligencia artificial

Una imagen de la saga de Terminator, una de las historias de ficción por excelencia sobre los riesgos de la inteligencia artificial.

A través de una carta abierta, en donde exigen una protección mayor para los trabajadores del sector que quieran ser informantes ante preocupaciones sobre la IA, explican que la pérdida de control sobre los sistemas autónomos representa uno de los principales riesgos.

Esta semana se dio a conocer que un grupo de trabajadores del sector de la inteligencia artificial publicaron una carta abierta exigiendo protección para aquellos informantes que se decidan a hablar contra la IA. Según plantearon, existen múltiples brechas que son puestas por las compañías como OpenAI y Google para proteger sus intereses económicos.

Pero en la misma carta, titulada como “un derecho a advertir sobre la inteligencia artificial avanzada”, los especialistas también plantearon los riesgos que existen con la inteligencia artificial, incluyendo lo más importante de todo: el fin de la civilización. Un apocalipsis.

“Somos empleados actuales y anteriores de empresas de inteligencia artificial de vanguardia y creemos en el potencial de la tecnología de inteligencia artificial para brindar beneficios sin precedentes a la humanidad”, explicaron en la misiva. “También entendemos los graves riesgos que plantean estas tecnologías”, agregaron.

Los siguientes son los principales riesgos que enumeran:

- Un mayor afianzamiento de las desigualdades existentes

- La manipulación y la desinformación

- La pérdida de control de los sistemas autónomos de IA

En esa línea, explican que ese último punto “podría provocar la extinción humana”.

Fuertes incentivos financieros: la gran traba para evitar la supervisión de las IA

Según plantean en la carta abierta, las propias empresas de inteligencia artificial han reconocido los riesgos de estas nuevas tecnologías, al igual que gobiernos y otros expertos, pero existen trabas económicas para enfrentarlas.

“Tenemos la esperanza de que estos riesgos puedan mitigarse adecuadamente con la orientación suficiente de la comunidad científica, los formuladores de políticas y el público. Sin embargo, las empresas de IA tienen fuertes incentivos financieros para evitar una supervisión efectiva, y no creemos que las estructuras personalizadas de gobierno corporativo sean suficientes para cambiar esto”, advirtieron.

También agregan que las empresas de IA “poseen información sustancial no pública sobre las capacidades y limitaciones de sus sistemas, la idoneidad de sus medidas de protección y los niveles de riesgo de diferentes tipos de daños”. Sin embargo, “actualmente sólo tienen obligaciones débiles de compartir parte de esta información con los gobiernos, y ninguna con la sociedad civil”.

No creemos que se pueda confiar en que todos lo compartirán voluntariamente”, remarcan.

En ese sentido, los expertos plantean que debe existir “una supervisión gubernamental efectiva” de las corporaciones, pero por ahora los únicos que pueden hacer algo son los empleados actuales y anteriores de las compañías que innovan en la IA.

Por eso plantean que “los amplios acuerdos de confidencialidad” impiden que los trabajadores expresen sus preocupaciones y, más aún, muchos de los riesgos aún no han sido regulados por las legislaciones alrededor del mundo.

Temas Relacionados

COMPARTIR NOTA