OpenAI lanza GPT-4o, su último avance en inteligencia artificial, diseñado para brindar respuestas en tiempo real y con la capacidad única de comprender tanto audio como video. Este nuevo modelo representa un hito en la interacción entre humanos y máquinas, ofreciendo una experiencia más natural y aceptando una variedad de medios como entrada.
Según Sam Altman, CEO de OpenAI, GPT-4o es "nativamente multimodal", lo que significa que puede generar contenido o interpretar comandos en voz, texto e imágenes. Los desarrolladores interesados en explorar las capacidades de GPT-4o tendrán acceso a su API, la cual se ofrece a la mitad del precio y con el doble de velocidad en comparación con GPT-4-turbo, como señaló Altman durante su intervención en la conferencia X.
Este nuevo modelo de Inteligencia Artificial ha alcanzado un nivel de perfección notable, emulando la experiencia de interactuar con otro ser humano de manera asombrosamente precisa. Entre sus numerosas ventajas, destaca su gratuidad, mientras que la versión 4.0 seguirá siendo de pago.
En cuanto a su disponibilidad, la compañía ha anunciado: "Las capacidades de texto e imagen de GPT-4o se están implementando desde hoy en ChatGPT. Estamos haciendo que GPT-4o esté disponible de forma gratuita para los usuarios, con límites de mensajes hasta 5 veces mayores para los usuarios Plus. Próximamente, lanzaremos una nueva versión del Modo de Voz con GPT-4o en fase alfa dentro de ChatGPT Plus".
ChatGPT ahora también puede traducir conversaciones de manera similar a como lo haría un traductor humano, facilitando la comunicación y eliminando las barreras idiomáticas.
Por si fuera poco, simplemente al subir una fotografía o imagen, este modelo proporciona detalles precisos sobre ella, superando ampliamente las expectativas anteriores. Con solo un teléfono móvil, este avance de OpenAI puede analizar cualquier cosa que capture nuestra cámara.
La disponibilidad comienza desde hoy, aunque el despliegue puede no ser uniforme, por lo que algunos usuarios podrían tener que esperar unos días para disfrutar de las nuevas posibilidades que ofrece GPT-4o. Además, la versión del modo voz con GPT-4o estará disponible en las próximas semanas, aunque aún no se han proporcionado detalles específicos al respecto.