OpenAI ha retrasado el lanzamiento de su prometido “modo adulto” para ChatGPT y, según reportó The Wall Street Journal el 16 de marzo de 2026, la versión que llegue primero permitirá únicamente conversaciones de texto, no generación de imágenes, voz ni video.

¿Qué pasó y por qué se demoró?

La función fue anunciada originalmente en octubre, pero OpenAI decidió postergarla para concentrarse en prioridades consideradas más urgentes y para resolver problemas técnicos y de seguridad señalados internamente, de acuerdo con The Wall Street Journal. En enero, un consejo asesor advirtió que el modo podría ser accesible para niños y fomentar dependencia emocional con el chatbot; esas preocupaciones internas ayudaron a la decisión de retraso, según la misma fuente. Además, el equipo detectó que el sistema de predicción de edad llegó a errar al clasificar menores como adultos en alrededor del 12% de los casos durante pruebas internas, un dato que el diario atribuye a personas familiarizadas con el tema (12% — The Wall Street Journal).

¿Qué implican los datos de uso y los errores del sistema?

El problema no es teórico: The Wall Street Journal señala que ChatGPT atrae a aproximadamente 100 millones de usuarios menores de 18 años cada semana, lo que hace que una tasa de error del 12% en la detección de edad pueda implicar que millones de menores accedan a contenido sexualizado si la salvaguarda falla (100 millones usuarios <18 semanalmente; 12% tasa de error — The Wall Street Journal). Vemos dos riesgos prácticos: exposición accidental de menores y la posibilidad de que el chatbot genere respuestas que refuercen conductas emocionales dependientes. OpenAI reconoce que su algoritmo de edad no será perfectoa y que su desempeño es comparable al de la industria, pero esa comparación no responde a la pregunta de qué nivel de error es aceptable en un servicio con tanta audiencia joven.

¿Cómo se relaciona esto con la regulación y la competencia?

Limitar el modo adulto a texto puede ser una decisión estratégica para evitar ciertos requisitos regulatorios: el Reino Unido, por ejemplo, exige verificación de edad para imágenes pornográficas pero no para erotica escrita, lo que facilita el despliegue de experiencias solo textuales según The Wall Street Journal. Al mismo tiempo, competidores como Grok (xAI) han optado por políticas más permisivas en imágenes y video, permitiendo material que sería comparable a lo que aparece en una película calificada R, según el reporte. Esa divergencia deja a los usuarios y a los responsables de políticas con preguntas claras: ¿queremos que plataformas centralizadas ofrezcan erotica textual sin verificaciones estrictas, o preferimos estándares más homogéneos y transparentes?

¿Qué pedimos y qué debería publicar OpenAI antes de avanzar?

Valoramos la utilidad técnica que funciones como esta pueden tener para usuarios adultos, pero exigimos transparencia y gobernanza. Pedimos a OpenAI que publique métricas públicas sobre el desempeño del sistema de verificación de edad (tasas de falsos positivos y negativos, tamaños y sesgos del conjunto de entrenamiento), que ofrezca documentación en español accesible y que defina procesos claros de revisión humana y gobernanza de datos — medidas que ya hemos reclamado en anteriores notas sobre OpenAI. Además, solicitamos plazos concretos y auditorías independientes que permitan verificar mejoras reales frente al 12% de error reportado y la exposición semanal estimada de 100 millones de usuarios menores, según The Wall Street Journal.

Cerramos con una advertencia práctica: cuando una función toca sexualidad y salud mental conviene más (y no menos) transparencia. Valoramos la innovación, pero no a costa de dejar en la oscuridad métricas y controles que afectan a millones de menores y a usuarios adultos por igual.