Aunque hay áreas en las que la inteligencia artificial (IA) puede ser beneficiosa, también hay muchas cosas vinculadas a ella que podrían «salir mal», reconoció Sam Altman, director ejecutivo y cofundador de OpenAI Inc.
Según el empresario y programador estadounidense, cuya compañía OpenAI ha sido valorada en más de 27.000 millones de dólares, los «beneficios superan los costes» de la nueva tecnología. Altman destacó ámbitos como la ciencia, la educación y la medicina como prometedores campos de aplicación de los avances de la IA y añadió: «Creo que sería bueno acabar con la pobreza, pero tendremos que gestionar el riesgo para conseguirlo».
El empresario también se pronunció sobre las peticiones de los legisladores para regular la inteligencia artificial: «Pienso que una regulación global puede ayudar a hacerla segura, que es una respuesta mejor que detenerla».
Sam Altman alabó el enorme éxito de los productos de OpenAI, como el chatbot ChatGPT y el generador de imágenes Dall-E, e insistió en que su preocupación por la IA en este momento «no tiene que ver con el dinero».
«Tengo suficiente dinero… Este concepto de tener suficiente dinero no es algo que sea fácil de superar para otras personas», explicó Altman, subrayando que la construcción de los llamados «guardarraíles» para el uso de la IA es uno de los pasos «más importantes» que «la humanidad tiene que conseguir con la tecnología.»
Altman también se pronunció sobre las recientes advertencias del CEO de Tesla, Elon Musk, sobre el potencial dañino de la IA. Musk, cofundador de OpenAI con Altman, «se preocupa mucho por la seguridad de la IA», subrayó el gurú tecnológico, añadiendo que las señales de alarma que sonaron «venían de un buen lugar».
Anteriormente, cientos de investigadores en inteligencia artificial y ejecutivos de tecnología habían firmado una dura advertencia de que la IA supone una amenaza existencial para la humanidad.
«Mitigar el riesgo de extinción [de la humanidad proveniente] de la IA debería ser una prioridad mundial junto a otros riesgos a escala social como las pandemias y la guerra nuclear», alerta la declaración publicada el 30 de mayo.
El comunicado llevaba las firmas de algunos de los nombres más destacados de la industria, como Altman; el padrino de la IA, Geoffrey Jinton; el Director del Centro para la Seguridad de la IA, Dan Jendrycks, y altos ejecutivos de Microsoft y Google.
Otra carta pública emitida en marzo reunió las firmas de más de 1.000 académicos, empresarios y especialistas en tecnología que instaban a hacer una pausa en el desarrollo de la IA hasta que pueda regularse y gestionarse de forma responsable.