OpenAI anunció el 25/3/2026 el lanzamiento de un Safety Bug Bounty público, destinado a identificar riesgos de abuso y seguridad en sus productos. Según OpenAI News (25/3/2026), el programa complementa el Security Bug Bounty y acepta problemas que no cumplen los criterios de vulnerabilidad tradicional, pero que presentan riesgo real para usuarios. El aviso incluye un umbral explícito: para reportes de secuestro de agentes por inyección de prompt, la conducta debe ser reproducible al menos el 50% de las veces, según el comunicado oficial.
¿Qué cubre y qué queda afuera?
OpenAI lista al menos cuatro familias de riesgo en el aviso: riesgos agenticos (incluyendo agentes como Browser y ChatGPT Agent), exfiltracion de datos y prompt injection, exposicion de informacion proprietaria, e integridad de cuentas y plataforma, según OpenAI News (25/3/2026). Los reportes deben mostrar daño plausible y pasos de remediacion accionables; jailbreaks que solo generan lenguaje grosero o contenido facil de encontrar en la web quedan fuera del alcance publico. Además, el programa remite ciertos hallazgos a su Security Bug Bounty cuando la issue permite acceso no autorizado a funcionalidades o datos. Este enfoque delimita lo que se recompensa, pero tambien puede dejar sin incentivo a vectores de daño menos evidentes.
¿Cómo impacta esto en Argentina?
Vemos tres implicaciones concretas para el ecosistema argentino. Primero, la exigencia de reproducibilidad del 50% significa que testers y consultoras locales necesitaran metodologias robustas para documentar fallos, algo que puede subir el costo de investigacion; la cifra proviene del anuncio de OpenAI (25/3/2026). Segundo, OpenAI pide que las pruebas cumplan los terminos de servicio de terceros, lo que complica tests contra integraciones locales o servicios latinoamericanos con clausulas distintas. Tercero, si bien OpenAI menciona campañas privadas previas sobre temas de biorriesgo y GPT-5, hoy 25/3/2026 hace publico este canal de seguridad, lo que cambia la relacion temporal entre programas cerrados y abiertos. En la practica, demandamos que cualquier programa de recompensas incluya documentacion en español y metricas publicas para que investigadores latinoamericanos participen con igualdad de condiciones.
A quien beneficia y a quien no
Un bug bounty de este tipo beneficia a tres grupos: investigadores independientes con experiencia en IA agentica, equipos internos de seguridad y usuarios finales si las fallas se corrigen rapido. Sin embargo, queda un vacio para investigadores juniors y para organizaciones civiles que hacen pruebas de impacto social: cuando el alcance exige reproduccion al 50% y pasos de remediacion tecnico, los hallazgos socio-tecnicos que demuestran riesgo institucional pueden quedar fuera del incentivo economico. OpenAI tambien excluye reportes genericos de bypass de politicas sin impacto demostrable, lo que deja subjetividad en la evaluacion. Por eso apoyamos la iniciativa pero pedimos transparencia: metricas publicas de cuantas incidencias se presentan, cuantas se corrigen y plazos promedio de remediacion, tal como exigimos en posiciones previas sobre gobernanza de IA.
¿Basta con un bug bounty? Nuestra lectura editorial
Un bug bounty publico es una herramienta util, pero no sustituye la documentacion en idioma local, las metricas abiertas y la gobernanza con revision humana. OpenAI pone criterios tecnicos —por ejemplo el umbral del 50%— que son razonables para problemas reproducibles, segun su comunicado (25/3/2026), pero la practica nos muestra que muchos daños surgen de interacciones complejas y contextuales que no siempre cumplen esos umbrales. Por coherencia con nuestra postura previa sobre IA, apoyamos limites legales a usos peligrosos y pedimos a OpenAI que publique reportes agregados: numero de hallazgos anuales, porcentaje remediado en 30 dias, y traducciones de guias y formularios al espanol. Solo asi un programa de recompensas puede ser parte de una gobernanza responsable y democratica de la tecnologia.