Esta escala podría ayudar a proporcionar una definición estricta del progreso, en lugar de dejarlo abierto a la interpretación.
OpenAI creó una escala interna con el objetivo de seguir el progreso que sus modelos de lenguaje grande están logrando hacia la inteligencia general artificial (AGI), que se trata un tipo hipotético de inteligencia artificial (IA) que iguala o excede la inteligencia humana promedio, informó Bloomberg.
Los chatbots actuales, como ChatGPT, están en el nivel 1. OpenAI afirma que se está acercando al nivel 2, definido como un sistema que puede resolver problemas básicos al nivel de una persona con un doctorado. El nivel 3 se refiere a los agentes de IA capaces de realizar acciones en nombre de un usuario. El nivel 4 implica a la IA que puede crear nuevas innovaciones. El nivel 5, el paso final para lograr la IAG, es la IA que puede realizar el trabajo de organizaciones enteras de personas. La empresa la definió anteriormente ”un sistema altamente autónomo que supera a los humanos en la mayoría de las tareas económicamente valiosas”.
La estructura única de OpenAI se centra en su misión de lograr la IAG, y la forma en que OpenAI define la IAG es importante. La empresa detalló que ”si un proyecto alineado con el valor y consciente de la seguridad se acerca a la creación de IAG” antes de que lo haga OpenAI, se compromete a no competir con el proyecto y dejar todo para ayudar.
Aun así, la IA general aún está muy lejos: se necesitarán miles de millones de dólares en potencia informática para alcanzarla, si es que se logra. Los plazos que indican los expertos, e incluso los de OpenAI, varían enormemente. En octubre de 2023, el director ejecutivo de OpenAI, Sam Altman, dijo que faltarían, de mínima, “cinco años, más o menos” para alcanzarla.
El papel de OpenAI en biociencias
Esta nueva escala de calificación, que todavía está en desarrollo, se presentó un día después de que OpenAI anunciara su colaboración con el Laboratorio Nacional de Los Álamos, cuyo objetivo es explorar cómo los modelos de IA avanzados como GPT-4o pueden ayudar de forma segura en la investigación biocientífica.
Un gerente de programa en Los Álamos, responsable de la cartera de biología de seguridad nacional e instrumental en asegurar la asociación con OpenAI, le dijo al portal The Verge que el objetivo es probar las capacidades de GPT-4o y establecer un conjunto de factores de seguridad y otros para el gobierno de los EE. UU. Con el tiempo, los modelos públicos o privados se pueden probar en relación con estos factores para evaluar sus propios modelos.
En mayo, OpenAI disolvió su equipo de seguridad después de que el líder del grupo, el cofundador de OpenAI Ilya Sutskever, abandonara la empresa. Jan Leike, un investigador clave de OpenAI, renunció poco después de afirmar en una publicación que “la cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos brillantes” en la empresa. Si bien OpenAI negó que ese fuera el caso, a algunos les preocupa lo que esto significa si la empresa de hecho alcanza la AGI.
OpenAI no proporcionó mayores detalles sobre cómo asigna modelos a estos niveles internos. Sin embargo, los líderes de la empresa demostraron un proyecto de investigación que utiliza el modelo de IA GPT-4 durante una reunión general el jueves y creen que este proyecto muestra algunas habilidades nuevas que exhiben un razonamiento similar al humano, indicaron fuentes.
Esta escala podría ayudar a proporcionar una definición estricta del progreso, en lugar de dejarlo abierto a la interpretación.