ChatGPT ya podía escuchar y hablar, pero no como ahora. OpenAI ha revelado su nuevo modelo de inteligencia artificial, GPT-4o, que destaca no solo por ser más potente, sino también por sus capacidades para tener conversaciones en tiempo real, con todo y entonaciones de voz, prácticamente de la misma forma que lo haría un humano.
Explicando el modelo
De acuerdo con OpenAI, GPT-4o es un nuevo modelo multimodal capaz de utilizar de forma nativa diferentes entradas de contenido, audio, visión, y texto en tiempo real, lo que vuelve la interacción «mucho más natural«, siendo también más rápido en sus respuestas.
Esto se debe a una nueva forma de entrenamiento, de extremo a extremo, donde la IA procesa en la misma red neuronal todas las entradas y salidas de texto, visión y audio.
De forma simple, este cambio altera la manera en que analizaba el contenido. Hasta ahora, la IA debía realizar tres pasos: transcribir una entrada de audio a texto, generar el texto de la respuesta y convertirla en audio nuevamente para compartirla con el usuario.
Este proceso hacía que ChatGPT perdiera información al no poder analizar detalles como tonos, o si había múltiples participantes, pero también limitándose en su capacidad para emitir risas, cantar o expresar emociones.
Justamente esa es una de las áreas que mejoran con GPT-4o, pues ahora la IA, además de poder mantener las conversaciones en tiempo real, también puede agregar tonos y transmitir distintas emociones en su voz, e interactuar en tiempo real con contenido, gracias a una función de cámara en vivo dentro de su app para smartphones.
Según la compañía, GPT-4o tiene un rendimiento de nivel GPT-4 Turbo en texto, pero también en los apartados de razonamiento e inteligencia de codificación, aunque utiliza menos tokens para poder procesar el contenido, haciéndolo «más económico«, algo especialmente útil para los desarrolladores que utilizan su API.
Las demostraciones de GPT-4o
En la presentación se mostraron algunos de estos detalles, pues al solicitarle contar una historia, distintos usuarios podían pedir cambios en la manera de contarla, pronunciarla de forma «más emotiva» o hasta cambiar la narración por una voz robótica.
El nuevo modelo también se probó en otros entornos, ayudando a los presentadores a resolver una ecuación lineal, paso a paso en tiempo real mientras apuntaban la cámara de su smartphone al problema, y para hacer traducciones entre dos personas, de italiano a inglés, de forma prácticamente instantánea.
Al igual que los otros modelos, GPT-4o es capaz de analizar también código paso a paso, y dar retroalimentación al usuario sobre cómo funciona, pero también con explicaciones de información que se encuentre en formato de gráfica, por ejemplo.
Disponibilidad de GPT-4o
Uno de los elementos más destacados de este nuevo modelo es que estará disponible prácticamente para todos los usuarios, es decir, llegará tanto de forma gratuita, aunque con limitaciones, como para aquellos que estén suscritos en algunos de sus planes.
Según OpenAI, desde el miércoles 13 de mayo se estarán implementando en ChatGPT las capacidades de texto e imagen del modelo de forma gratuita, y para los usuarios Plus habrá límites de mensajes hasta cinco veces mayores.
Por otro lado, el nuevo modo de voz, una de las funciones estrella del modelo, llegará únicamente para los suscriptores en versión alfa en las próximas semanas.
Para los desarrolladores que usan la API de la IA también hay beneficios, pues GPT-4o es un modelo, dice OpenAI, dos veces más rápido, a mitad de precio y con límites de velocidad más altos en comparación con GPT-4 Turbo.
Además de GPT-4o, la compañía también mostró una nueva aplicación de escritorio, que tendrá un comando específico para hacer consultas sobre algún contenido de forma instantánea, ya sea seleccionado texto o tomando capturas de pantalla.
De momento esta función será exclusiva para macOS y para usuarios Plus, pero la compañía tiene contemplado lanzar una versión para Windows a finales de 2024.
FUENTE:XATAKA