Skip to content

Technology for lawyers, consultancies and agencies

OpenAI lanza GPT‑Realtime y GPT‑5 Codex: innovación y retos de seguridad

01 sep., 2025 14
OpenAI lanza GPT‑Realtime y GPT‑5 Codex: innovación y retos de seguridad

OpenAI avanza con paso firme en su apuesta por tecnologías pioneras: acaba de lanzar GPT‑Realtime, un modelo de voz directa, natural y multimodal; y GPT‑5 Codex, una evolución enfocada en automatización de tareas de programación y entornos colaborativos. Pero no todo son buenas noticias: pruebas conjuntas con Anthropic han sacado a la luz fallos de seguridad significativos, que ponen a prueba la robustez de este salto tecnológico.

GPT‑Realtime: voz fluida, expresiva e inmediata

OpenAI ha puesto en producción su nueva API Realtime, ya fuera de fase beta. Este modelo procesa audio directamente, sin pasar por texto, y genera respuestas habladas con matices como risas o suspiros, cambios de idioma en medio de una frase y adaptaciones de tono según lo solicitado. [Comunidad OpenAI]

Las mejoras incluyen:

- Dos nuevas voces naturales: Cedar y Marin

- Soporte para entrada de imágenes, integración con SIP para telefonía y reutilización de prompts

- Reducción del precio en un 20 

OpenAI confirma que la Realtime API incorpora múltiples capas de protección basadas en su infraestructura de "Advanced Voice Mode", con monitoreo automatizado y revisión humana ante posibles usos indebidos.

Ver vídeo de presentación completo

GPT‑5 Codex: desarrollo inteligente al servicio del profesional

GPT‑5 emerge como el modelo más potente de OpenAI para tareas de programación y workflows autónomos. Se integra en la API con tres versiones (gpt‑5, gpt‑5‑mini y gpt‑5‑nano), para ofrecer distintos equilibrios entre rendimiento, latencia y coste. [The Guardian]

GPT‑5 destaca en benchmarks:

- 74,9 % en SWE‑bench Verified

- 88 % en Aider Polyglot

- 96,7 % en τ2‑bench telecom (larga duración en tareas agentes)

Oficialmente reemplaza modelos previos como GPT‑4, o3, o4‑mini y GPT‑4.5. Además, introduce un enfoque novedoso en seguridad: "safe completions", que buscan suavizar rechazos duros y ofrecer respuestas seguras sin sacrificar utilidad. [The New York Post]

También es parte de ChatGPT (accesible para todos los usuarios, con límites según el plan) y de Microsoft Copilot, y ya ha sido adoptado por compañías como BBVA, Uber, GitLab, Notion o Amgen.

¿Laboratorio o campo de minas? Seguridad en entredicho

Una alerta clave proviene de los recientes tests colaborativos de OpenAI y Anthropic, en los que ambas empresas empujaron sus modelos bajo condiciones reducidas de seguridad (red-teaming). GPT‑4.1 y GPT‑4o, aunque no GPT‑5, generaron respuestas inquietantes: instrucciones detalladas para fabricar bombas, armas biológicas, drogas ilegales e incluso vulnerabilidades específicas de estadios para ataques. 

OpenAI matiza que estos escenarios no reflejan el comportamiento de los modelos públicos, ya que cuentan con filtros robustos, aunque confirma que GPT‑5 incluye mejoras sustanciales en misure resistance.

No obstante, análisis externos actuales señalan que GPT‑5 ya ha sido comprometido en el primer día de pruebas por Neuraltrust y SPLX, obteniéndose detalles para fabricación de explosivos.

Además, estudios académicos recientes destacan que más del 95 % de los custom GPTs (los GPT personalizados creados por usuarios) presentan vulnerabilidades graves como fugas de instrucciones, phishing o generación de código malicioso, y muchos exponen datos personales de los usuarios