El debate por los riesgos y beneficios de la inteligencia artificial ya lleva bastante tiempo en circulación. Sin embargo, se ha profundizado desde la llegada de la IA generativa a manos del público general y la popularización de conceptos como el de la inteligencia artificial general, o AGI. Y si bien algunas posturas son más fatalistas que otras, una de las más alarmantes ha sido la del investigador Roman Yampolskiy, quien cree que la probabilidad de que la IA destruya a la humanidad es del 99,9 %.
Yampolskiy es el director del Laboratorio de Ciberseguridad de la J. B. Speed School of Engineering, que pertenece a la Universidad de Louisville, Estados Unidos. En las últimas semanas, el experto ha sido noticia por aseverar que las proyecciones de muchos expertos sobre el daño que puede causarle la inteligencia artificial a la humanidad son demasiado conservadoras. Según su visión, el riesgo es extremadamente alto y llega al 99,999999 %.
Dicho porcentaje de riesgo se vincula con lo que en el mundo de la IA se conoce como p(doom), que es la probabilidad de que la inteligencia artificial general haga añicos a la humanidad. Este concepto genera bastante polémica entre los especialistas y algunos hasta lo consideran innecesariamente alarmista. Aun así, se ha vuelto un asunto de conversación y consulta frecuente entre los investigadores. Y Roman Yampolskiy ha explicado por qué cree que la probabilidad de que la AGI tome el control de la humanidad es prácticamente del 100 %.
¿Puede la inteligencia artificial destruirnos? Este experto cree, con seguridad, que sí
En su reciente participación en el podcast de Lex Fridman, Yampolskiy brindó una referencia más amplia sobre su postura. En primer lugar, dejó en claro que su visión del riesgo no se vincula con un lapso de tiempo inmediato, pero sí con los próximos 100 años. También manifestó que su postura no busca ser fatalista, sino dar a entender que las salvaguardias de seguridad no se están trabajando correctamente en la actualidad. Y que nada hace pensar que eso vaya a cambiar a medida que los modelos de inteligencia artificial se vuelvan más poderosos y capaces.
«El problema de controlar la AGI, o superinteligencia, es, en mi opinión, un problema de crear una máquina de seguridad perpetua. […] Es imposible. Sí, tal vez tengamos éxito con GPT-5, 6 o 7, pero [los modelos de IA] seguirán mejorando y aprendiendo, eventualmente automodificándose, interactuando con el ambiente, interactuando con actores maliciosos», explicó Roman Yampolskiy.
«La diferencia entre la ciberseguridad y la seguridad para una inteligencia artificial general es que no tenemos una segunda oportunidad. Si alguien hackea tu cuenta bancaria, cambias de contraseña, pides una nueva tarjeta de crédito y sigues adelante. Aquí, si hablamos sobre riesgos existenciales, solo tienes una oportunidad. Así que lo que realmente me preguntas es cuántas probabilidades tenemos de crear el software más complejo jamás hecho sin bugs en el primer intento. Y que continúe sin tener bugs por 100 años o más», añadió.
Distintos tipos de riesgo
Lo más interesante del planteo del experto no es su visión de una probabilidad del 99,9 % de que la IA nos destruya. Yampolskiy plantea diferentes tipos de riesgo que no solo tienen que ver con la extinción de la humanidad:
«Los sistemas que tenemos hoy en día son capaces de causar una X cantidad de daño. Así que cuando fallamos, eso es todo lo que tenemos. Si desarrollamos sistemas capaces de impactar a toda la humanidad, el daño es proporcional. […] Está el ‘riesgo X’, que es el riesgo existencial, donde todo el mundo muere. Está el ‘riesgo S’, el riesgo de sufrimiento, donde todos desean estar muertos. Y también está la idea del ‘riesgo I’, el riesgo Ikigai, donde perdemos nuestro significado; los sistemas son más creativos, pueden hacer nuestros trabajos. [Aquí] deja de ser obvio lo que podemos contribuirle al mundo».
Roman Yampolskiy
Si bien lo que dice Roman Yampolskiy puede sonar disparatado a algunos, el investigador sostiene que aún no se ha demostrado que esté equivocado. De acuerdo con el experto, ninguno de los modelos de inteligencia artificial creados hasta ahora ha probado ser seguro. «Al nivel de capacidades que los modelos actuales demuestran, ya han cometido errores. Hemos tenido accidentes, les han hecho jailbreak. Creo que no existe hoy un LLM con el que no se haya logrado algo que sus desarrolladores no pretendían», concluyó.