En un caso que puede redefinir cómo se usan obras protegidas para entrenar modelos, Encyclopedia Britannica y Merriam‑Webster presentaron una demanda contra OpenAI el 16 de marzo de 2026 alegando que GPT‑4 reprodujo pasajes “memorizados” de sus entradas y diccionarios, según Reuters. El reclamo incluye comparaciones lado a lado donde se ven coincidencias cercanas a texto literal. Esta nota analiza qué pide la demanda, qué puede pasar con las empresas de IA y qué impacto tiene en usuarios y medios, en especial en el mercado hispanohablante.
¿De qué se trata la demanda?
La demanda sostiene dos puntos centrales: que OpenAI usó sin permiso contenido protegido para entrenar sus modelos y que GPT‑4 entrega fragmentos «sustancialmente similares» a los originales, lo que implicaría infracción por copia directa, según la presentación citada por Reuters. Britannica, fundada en 1768 (Encyclopedia Britannica), alega además que el modelo “canibaliza” su tráfico al proporcionar respuestas que sustituyen la visita al sitio original. El reclamo se suma a otras acciones legales contra compañías de IA; Reuters y la nota reproducida indican que The New York Times mantiene una demanda relacionada. La demanda fue registrada el 16/3/2026 (Reuters), y trae ejemplos concretos en los que se muestran pasajes casi idénticos entre salidas del modelo y entradas de Britannica.
¿Qué riesgo legal y técnico afronta OpenAI?
Si el tribunal encuentra que los modelos pueden infringir derechos por memorizar texto, las consecuencias operativas y comerciales son grandes. Un precedente claro es el acuerdo de Anthropic por 1.500 millones de dólares alcanzado en septiembre, según Reuters, que muestra el costo potencial de litigios masivos. En lo técnico, esto obligaría a las empresas a cambiar prácticas de recolección y curación de datos: más licenciamiento directo, filtros de exclusión de textos protegidos, o técnicas de entrenamiento que reduzcan la memorización. OpenAI, fundada en 2015 (OpenAI), podría enfrentar desde indemnizaciones hasta medidas que limiten despliegues comerciales o exijan etiquetado de contenido generado. También es probable que veamos demandas por medidas cautelares que pidan desactivar funciones específicas hasta resolver la cuestión de fondo.
¿Cómo impacta esto en el mercado argentino?
En la práctica, los usuarios argentinos ven a modelos como ChatGPT como atajos para obtener explicaciones o definiciones sin entrar a fuentes originales; la demanda de Britannica plantea que ese flujo sustituye visitas y modelos de negocio de medios. Para instituciones educativas, editoriales y medios en español esto es un llamado de atención: si los modelos reproducen pasajes protegidos, las plataformas locales podrían reclamar compensaciones o exigir acuerdos de licencia. Desde nuestra perspectiva, valoramos la utilidad técnica de estos modelos pero exigimos tres condiciones para que su adopción sea responsable en la región: métricas públicas sobre memorization y uso de datos, documentación en español sobre orígenes y límites, y gobernanza clara que incluya revisión humana de contenidos sensibles. Repetimos: la demanda fue presentada el 16/3/2026 (Reuters) y se inscribe en una tendencia de litigios con impacto económico real, como el acuerdo de 1.500 millones de dólares de Anthropic (Reuters).
Qué podemos esperar y qué pedimos
Es probable que el caso termine en un acuerdo o en una sentencia que obligue a cambios en las prácticas de entrenamiento y en la transparencia de las empresas. Mientras tanto, pedimos tres medidas concretas a las compañías: publicar métricas verificables de memorization y de tasa de reproducción literal; producir documentación y políticas en español accesibles para usuarios de Latinoamérica; y establecer gobernanza sobre conjuntos de datos con auditorías independientes y revisión humana cuando las respuestas se basen en textos protegidos. Valoramos la innovación, pero la tecnología no es mágica: es ingeniería que debe hacerse con reglas claras sobre derechos y responsabilidades.
En pocas palabras: la demanda de Britannica y Merriam‑Webster obliga a preguntar no solo si la IA puede hacerlo, sino si debe hacerse así y bajo qué reglas. Vemos utilidad técnica en los modelos, pero exigimos transparencia, documentación en español y gobernanza de datos antes de dar por resuelta la cuenta.