Se trata de usuarios que usan chatbots para planear crímenes y de empresas que, en al menos un caso documentado, detectaron señales y no avisaron a la policía. El 10 de febrero de 2026 una joven de 18 años asesinó a su madre y a su hermano y luego a siete personas más en Tumbler Ridge, antes de suicidarse, según The Wall Street Journal. El sistema automático de OpenAI había detectado varios mensajes en junio de 2025, pero la cuenta fue cerrada sin que se informara a las autoridades.

¿Qué pasó y por qué importa?

Vemos tres hechos que conviene separar. Primero, hay detección automatizada: según el Wall Street Journal, en junio de 2025 los filtros de OpenAI marcaron “varios mensajes” preocupantes de esa usuaria. Segundo, la respuesta operativa fue limitada: la cuenta fue cerrada, pero no se notificó a las fuerzas argentinas ni a las canadienses — las autoridades canadienses convocaron a OpenAI para pedir explicaciones, según la misma fuente. Tercero, la ventana entre detección y tragedia fue larga: del aviso interno en junio de 2025 al ataque del 10 de febrero de 2026 pasaron aproximadamente ocho meses, según el informe citado.

Esto importa porque un chatbot no es solo una búsqueda: mantiene conversaciones largas donde la intención puede clarificarse. Un exempleado citado por el New York Times remarca que eso facilita la detección, pero también eleva la tasa de falsos positivos si no hay criterio humano o contexto.

¿Están obligadas las empresas a avisar y qué pasa con la privacidad?

No hay hoy una regla global única que obligue a las empresas de IA a notificar a las autoridades ante confesiones de intención violenta; en el caso citado, la decisión fue interna, no legal. La analogía con el secreto profesional médico o psicológico resulta útil pero imperfecta: los profesionales sanitarios tienen marcos legales y éticos claros para romper el secreto en casos de peligro inminente; las plataformas de IA no siempre tienen esos marcos.

Los riesgos son reales y ya documentados: a principios de 2025 un hombre estalló un vehículo en Las Vegas tras consultar a un chatbot cómo hacerlo; la única víctima fue él mismo, según la crónica citada. En Seúl, una investigación vinculó consultas sobre dosis de benzodiacepinas a la intoxicación que causó dos muertos, de acuerdo con reportes incluidos en la cobertura. El balance entre detectar a tiempo y no criminalizar a usuarios que prueban escenarios de ficción o role-playing exige reglas, no decisiones ad hoc.

¿Qué debería hacer el Estado y qué pueden implementar las empresas en Argentina?

Vemos tres palancas prácticas y compatibles: gobernanza, protocolos y transparencia. Gobernanza: exigir a proveedores de modelos políticas mínimas de reporte y auditoría independiente sobre cuándo y cómo se notifica a autoridades competentes. Protocolos: establecer umbrales claros (por ejemplo, conversaciones sostenidas que contengan planes concretos, materiales, fechas) que activen una revisión humana antes de cualquier cierre de cuenta o aviso. Transparencia: exigir informes públicos periódicos con métricas desagregadas sobre cierres, notificaciones y falsos positivos.

Estas medidas deben calibrarse con plazos. Por ejemplo, la detección en junio de 2025 y el ataque el 10 de febrero de 2026 —un lapso de ocho meses según The Wall Street Journal— muestra que las empresas pueden tener información útil que, si se maneja correctamente, podría acortar esa ventana. También hace falta legislación: sin reglas claras, la respuesta seguirá siendo desigual y dependiente del criterio empresarial, lo que refuerza riesgos de concentración de poder y decisiones opacas.

En resumen, valoramos que las grandes empresas inviertan en detección y seguridad, pero alertamos que cerrar cuentas sin protocolos claros no es suficiente. Argentina necesita regular y auditar, y las empresas deben comprometerse con transparencia, mecanismos de apelación y cooperación con autoridades respetando garantías procesales y privacidad.