Seamos sinceros, hay muy buenas noticias sobre la IA. En muchas ocasiones está vinculada con nuevas técnicas de medicina que incluso aspiran a hacernos inmortales. Sin embargo, lo cierto es que muchas otras noticias suelen ser bastante catastróficas. Sam Altman tiene un botón del pánico nuclear y cada vez más personas se preguntan si la IA va a causar un aluvión de profesiones que van a desaparecer por culpa de ChatGPT. Por este motivo, OpenAI ha decidido lanzar un equipo de riesgos catastróficos para frenar a la Inteligencia Artificial.
El hecho de que OpenAI le tema a su propia creación pone de relieve las cuestiones preocupantes que afectan a este tipo de tecnologías. Ya que al igual que sirven para hacer el bien, también puede hacer perfectamente el mal de una manera muy peligrosa.
El nuevo equipo de riesgos catastróficos
En esta ocasión, parece que lo que preocupa a OpenAI no es la Inteligencia Artificial como tal, sino que pueda caer en malas manos. Por ello, han creado un equipo para mitigar los «riesgos catastróficos» asociados con los malos usos de la Inteligencia Artificial tal y como recogen en el propio blog de OpenAI.
Su objetivo es evaluar los posibles riesgos que pueden surgir con la IA y atajarlos antes de que sean un problema de verdad, tal y como explican ellos mismos:
Se encargará de esto Aleksander Madry, actual director del MIT que va a abandonar su puesto para liderar este equipo. Se trata de una persona con experiencia en los modelos de lenguaje de la IA, por lo que es la persona perfecta para el puesto. No es la primera vez, además, que Sam Altman apuesta por proteger a la humanidad de los presuntos riesgos de la tecnología que ha creado. Al contrario, Altman lleva meses considerando que la seguridad es una de las principales prioridades del momento, ya que podría hacer mucho daño a la humanidad en su conjunto.
Que el equipo se haya formado para detener amenazas biológicas, químicas y radiactivas hace evidente que estamos ante una verdadera amenaza de riesgo para las personas, ya que, si la IA empieza a desarrollar algo relacionado con esto y cae en malas manos, podría ser catastrófico para todos aquellos habitantes de nuestro planeta.
Es interesante tener en cuenta que este tipo de jugadas se podrían considerar también ciertamente propagandísticas. Creando este tipo de departamentos son capaces de tranquilizar a los grandes organismos reguladores. Pero también mandan un mensaje importante: la IA es algo tan grande y tan revolucionario que su creación podría acarrear consecuencias imprevistas.
En resumidas cuentas:
- Se ha creado un nuevo equipo en OpenAI para detener todos los riegos que pueda suponer la IA.
- De hecho, no preocupa tanto lo que pueda haacer la IA como tal, sino lo que se pueda hacer con esta IA en malas manos.
- Por ello, este equipo tiene la misión de adelantarse y empezar a trabajar para detener estas cuestiones antes de que surjan.
- Esta misión ha sido encomendada a un experto del MIT.