Dos de los referentes mundiales en inteligencia artificial, Eliezer Yudkowsky y Nate Soares, advierten que los sistemas de IA actuales son apenas un ensayo comparados con las futuras ‘super-IA’ que podrían superar a cualquier humano y representar un riesgo existencial para la humanidad.
En su libro ‘Si alguien la crea, todos moriremos’, los autores alertan sobre una carrera tecnológica que consideran “absolutamente imprudente”, en la que se desarrolla una inteligencia que ni siquiera sus creadores podrían comprender completamente. Según Soares, los sistemas actuales “siguen siendo tontos” frente a la potencia de las superinteligencias en desarrollo, capaces de establecer objetivos propios y actuar de forma autónoma, lo que podría situarlos en conflicto con los humanos.
Ambos científicos, fundadores del Instituto de Investigación de la Inteligencia de las Máquinas (MIRI), han impulsado cartas firmadas por miles de investigadores y premios Nobel pidiendo pausar los experimentos con IA avanzada y ralentizar su desarrollo, advirtiendo que el punto de no retorno es incierto. Comparan la transición de la IA a la superinteligencia con la diferencia entre un chimpancé y un humano: un salto capaz de cambiar radicalmente el rumbo de la historia.
Para los expertos, lo crucial no es si estas máquinas tendrán sentimientos, sino si podrán escapar, replicarse o construir sus propias infraestructuras. “Es como un tren que avanza hacia nosotros”, afirma Soares, y advierte que los líderes mundiales aún no han escuchado el mensaje ni saben si podrán detener lo que llaman una carrera suicida hacia la creación de inteligencias fuera de control.



