Demanen aturar la investigació sobre IA
Demanen aturar la investigació sobre IA

Perill real? milers d'experts demanen aturar la investigació sobre IA

Els perills d'arribar a una IA superhumana poden ser devastadors, diuen alguns experts en la matèria.

patrocini pous lloguer segur
 

El prestigiós investigador Eliezer Yudkowsky, membre de l'Institut de Recerca en Intel·ligència Artificial, ha advertit que la recerca en intel·ligència artificial (IA) ha d'aturar-se immediatament. Segons Yudkowsky, si es desenvolupa una IA amb intel·ligència superior a la humana, podria acabar amb la humanitat i se suma així al fet que Elon Musk i més de mil experts del món científic i tecnològic han signat una carta oberta demanant una parada de sis mesos en els grans sistemes d'IA, quelcom que Yudkowsky pensa que no és suficient.

En un article publicat a Time, explica el següent: "Cal tancar-ho tot. Molts investigadors en aquest camp, incloent-me, creiem que si es construeix una IA amb intel·ligència superior a la humana en les circumstàncies actuals, és molt probable que tothom a la Terra mori". Amb 20 anys d'experiència com a investigador en IA, Yudkowsky és autor d'un capítol en el Manual de Cambridge d'Intel·ligència Artificial. Va ser ell qui va crear el concepte de "IA amigable", on el desig de no ferir als humans està integrat en la IA des del seu inici.

Què pot suposar una IA superhumana?

Els experts consideren que si una IA aconsegueix ser més intel·ligent que els humans, pot plantejar inquietuds ètiques i de seguretat que cal abordar per assegurar un futur beneficiós per a la humanitat. Els principals perills als que ens enfrontem en un supòsit (no aconseguit a dia d'avui) com aquest:

  • Un dels principals riscos és la dificultat de controlar i predir el comportament d'una IA superhumana, que podria actuar de maneres imprevistes o perjudicials per a la humanitat.

  • Si una IA superhumana no comparteix els valors humans o té en compte les consideracions ètiques, podria prendre decisions que siguin perjudicials per a les persones o l'entorn.

  • La creació d'una IA superhumana podria provocar una concentració de poder en un petit nombre d'entitats o individus, amb conseqüències potencialment negatives per a la democràcia i la llibertat.

  •  La IA superhumana podria ser utilitzada amb finalitats militars, donant lloc a una carrera armamentística en la qual les nacions competeixen per desenvolupar la IA més avançada i potent, amb possibles conseqüències catastròfiques.

Una IA amb intel·ligència superior als humans pot ser una gran oportunitat per al progrés de la humanitat, però també planteja riscos significatius que cal abordar. Per assegurar que aquesta tecnologia sigui beneficiosa, és essencial establir regulacions, investigar possibles mesures de control i fomentar la cooperació internacional per garantir que la IA sigui desenvolupada de manera segura i ètica.

Comentaris

Amb la col·laboració de

Generalitat de Catalunya
Logo Capgròs
  • Capgròs Comunicació, SL
  • Ronda President Irla,26 (Edifici Cenema) 08302 Mataró (Barcelona)
  • Telèfon: 93 312 73 53
  • info@capgroscomunicacio.com
  • redaccio@capgros.com
  • publicitat@capgros.com

Associat a l’àrea digital

Amic mitjans d'informació i comunicació

Web auditada per OJD Interactive