Los cambios están llegando muy rápido al frente de OpenAI. Obtuvimos el GPT-4o a principios de año y ahora hay nuevos modelos GPT. En septiembre de 2024, OpenAI lanzó sus nuevos modelos de inteligencia artificial, o1-preview y o1-mini, generando un gran interés en el ámbito tecnológico. Lo más sorprendente de estos modelos es su capacidad para verificar sus propias respuestas, marcando un avance significativo en la manera en que las IA manejan la información.
Avances tecnológicos en o1-preview
El modelo o1-preview ha demostrado ser pionero en el razonamiento autónomo. A diferencia de sus predecesores, este modelo puede realizar tareas complejas y corregir errores sin intervención humana. Utiliza un enfoque denominado “cadena de pensamiento”, que le permite descomponer problemas y reflexionar sobre ellos antes de emitir una respuesta. Esta característica no solo mejora la precisión, sino que también reduce la posibilidad de errores intencionales, conocidos como “alucinaciones intencionales”.
OpenAI destacó que el modelo o1-preview alcanzó un 83% de precisión en un examen clasificatorio para la Olimpiada Internacional de Matemáticas, una hazaña notable si se compara con el 14% logrado por modelos anteriores. Este avance resulta crucial para aplicaciones en programación y razonamiento científico.
Características del modelo o1-mini
Por otro lado, el modelo o1-mini es una versión más compacta y económica del modelo principal. Diseñado principalmente para tareas de programación, su costo es aproximadamente un 80% menor que el de su contraparte más avanzada. Ambos modelos han mostrado eficacia en tareas que requieren razonamiento complejo, aunque OpenAI admite que no siempre superan a sus predecesores en todas las métricas.
Una limitación importante es que ninguno de los modelos tiene acceso a Internet para buscar información en tiempo real. Esto significa que deben basarse exclusivamente en los datos con los que fueron entrenados, lo que puede afectar su capacidad para proporcionar respuestas actualizadas o verificar hechos externos.
Implicaciones del autocontrol en la IA
La capacidad de autocorrección y verificación de hechos representa un cambio fundamental en la interacción con inteligencias artificiales. Según Noam Brown, científico investigador de OpenAI, el modelo o1 está diseñado para “pensar” antes de responder, lo que mejora significativamente su rendimiento en tareas complejas. Este enfoque no solo aumenta la fiabilidad del modelo, sino que también abre nuevas posibilidades para su aplicación en campos como el derecho y la investigación científica.
Desafíos y futuro
A pesar de estos avances, OpenAI enfrenta retos importantes. La competencia en el campo de la inteligencia artificial es feroz, con empresas como Google DeepMind explorando métodos similares para mejorar la veracidad de sus modelos. Además, OpenAI ha decidido no mostrar las “cadenas de pensamiento” completas del modelo o1, debido a preocupaciones relacionadas con ventajas competitivas.
El futuro, sin embargo, parece prometedor. OpenAI planea experimentar con versiones del modelo o1 que puedan razonar durante horas o incluso días para perfeccionar aún más sus capacidades. No obstante, será clave hacer que estos modelos sean accesibles y asequibles para el público general.
Conclusión
La introducción de los modelos o1-preview y o1-mini marca un hito importante en el desarrollo de la inteligencia artificial. La capacidad de autocorrección y verificación no solo mejora la calidad de las respuestas generadas, sino que también plantea interrogantes sobre cómo utilizaremos estas herramientas en nuestra vida diaria. Con cada avance, nos acercamos a un futuro en el que las máquinas no solo responderán preguntas, sino que también evaluarán la veracidad de sus propias afirmaciones. ¡Sin duda, esto es emocionante!