iStock 1350320510
iStock 1350320510

Peligro real? miles de expertos piden parar la investigación sobre IA

Los peligros de llegar a una IA superhumana pueden ser devastadores, dicen algunos expertos en la materia.

patrocini pous lloguer segur
 

El prestigioso investigador Eliezer Yudkowsky, miembro del Instituto de Investigación en Inteligencia Artificial, ha advertido que la investigación en inteligencia artificial (IA) tiene que pararse inmediatamente. Según Yudkowsky, si se desarrolla una IA con inteligencia superior a la humana, podría acabar con la humanidad y se suma así al hecho que Elon Musk y más de mil expertos del mundo científico y tecnológico han firmado una carta abierta pidiendo una parada de seis meses en los grandes sistemas de IA, algo que Yudkowsky piensa que no es suficiente.

En un artículo publicado a Time, explica el siguiente: "Hay que cerrarlo todo. Muchos investigadores en este campo, incluyéndome, creemos que si se construye una IA con inteligencia superior a la humana en las circunstancias actuales, es muy probable que todo el mundo en la Tierra muera". Con 20 años de experiencia como investigador en IA, Yudkowsky es autor de un capítulo en el Manual de Cambridge de Inteligencia Artificial. Fue él quién creó el concepto de "IA amigable", donde el deseo de no herir a los humanos está integrado en la IA desde su inicio.

Qué puede suponer una IA superhumana?

Los expertos consideran que si una IA consigue ser más inteligente que los humanos, puede plantear inquietudes éticas y de seguridad que hay que abordar para asegurar un futuro beneficioso para la humanidad. Los principales peligros a los que nos enfrentamos en un supuesto (no conseguido a día de hoy) cómo este:

  • Uno de los principales riesgos es la dificultad de controlar y predecir el comportamiento de una IA superhumana, que podría actuar de maneras imprevistas o perjudiciales para la humanidad.

  • Si una IA superhumana no comparte los valores humanos o tiene en cuenta las consideraciones éticas, podría tomar decisiones que sean perjudiciales para las personas o el entorno.

  • La creación de una IA superhumana podría provocar una concentración de poder en un pequeño número de entidades o individuos, con consecuencias potencialmente negativas para la democracia y la libertad.

  • La IA superhumana podría ser utilizada con fines militares, dando lugar a una carrera armamentística en la cual las naciones compiten para desarrollar la IA más avance y potente, con posibles consecuencias catastróficas.

Una IA con inteligencia superior a los humanos puede ser una gran oportunidad para el progreso de la humanidad, pero también plantea riesgos significativos que hay que abordar. Para asegurar que esta tecnología sea beneficiosa, es esencial establecer regulaciones, investigar posibles medidas de control y fomentar la cooperación internacional para garantizar que la IA sea desarrollada de manera segura y ética.

Comentarios