Microsoft presentó Copilot Health, un “espacio separado y seguro” dentro de Copilot para preguntar sobre resultados de laboratorio, analizar datos de wearables y revisar expedientes médicos. Según Microsoft, los usuarios pueden importar registros desde más de 50.000 hospitales y organizaciones de salud en EE. UU. y conectar más de 50 dispositivos wearables; la compañía también dice que elevó información de organizaciones de salud creíbles en 50 países y que las respuestas incluirán citas y tarjetas de respuesta expertas elaboradas por Harvard Health. La empresa asegura que las conversaciones de salud están aisladas del Copilot general, que no se usarán para entrenar sus modelos y que los usuarios podrán eliminar datos o desconectar fuentes cuando quieran.

¿Qué ofrece Copilot Health y cómo funciona?

Copilot Health promete tres funciones concretas: comprensión de resultados de laboratorio, análisis de datos continuos desde wearables y búsqueda de profesionales según especialidad, ubicación, idioma y cobertura médica. Microsoft afirma que la importación de registros es posible a través de HealthEx y que la ingesta de resultados de laboratorio se hace mediante Function; además, la interfaz muestra datos recientes del wearable (por ejemplo, pasos) y recordatorios de turnos, si el usuario autoriza el acceso. En términos de fuentes, Microsoft sostiene haber incorporado material de organizaciones de salud en 50 países y tarjetas de respuesta escritas por Harvard Health, lo que intenta elevar la confiabilidad (según el comunicado de Microsoft). Vemos que la propuesta es similar a productos competidores: OpenAI lanzó ChatGPT Health en enero de 2026 y Amazon y Anthropic tienen ofertas orientadas a salud con posturas distintas sobre cumplimiento regulatorio.

¿Es seguro compartir mis datos médicos con Copilot Health?

Microsoft declara que Copilot Health está aislado, que los chats no se usan para entrenar modelos y que cuenta con la certificación ISO 42001, un estándar internacional para sistemas de IA que promueve trazabilidad y confiabilidad (según Microsoft). Sin embargo, Microsoft no ofrece hoy una versión HIPAA-compliant para consumidores, a diferencia de ChatGPT for Healthcare y Amazon Health AI, que tienen opciones orientadas a entornos regulados, y Anthropic afirma que su Claude for Healthcare es “HIPAA-ready” (según los anuncios públicos de cada empresa). Es importante recordar que la HIPAA impone obligaciones legales a hospitales y proveedores; las empresas tecnológicas que ofrecen servicios directos al consumidor no siempre quedan sujetas a las mismas sanciones. Por eso recomendamos cautela: una certificación ISO es relevante, pero no sustituye el cumplimiento legal específico que protege derechos y sanciona errores.

¿Me conviene usar Copilot Health desde Argentina?

La función tendrá un despliegue por fases y hay una lista de espera; Microsoft no asegura disponibilidad global inmediata ni confirma soporte completo en español para todos los flujos, según su anuncio. Dado que la importación masiva de registros se realiza desde sistemas estadounidenses (más de 50.000 instituciones, según Microsoft), la utilidad práctica para usuarios argentinos dependere de integración local con hospitales, laboratorios y seguros. Además, Microsoft menciona información de organizaciones en 50 países, pero eso no equivale a cobertura legal ni a interoperabilidad con historias clínicas públicas o privadas locales. Para alguien en Argentina, la pregunta práctica es si la app puede leer resultados de laboratorios locales o sincronizarse con obras sociales y prestadores: hoy no hay garantías públicas; por lo tanto, sugerimos esperar confirmaciones sobre soporte en español y acuerdos con actores locales antes de volcar datos sensibles.

¿Qué pedimos como usuarios y reguladores?

Valoramos que estas herramientas hagan más comprensible la salud personal, pero exigimos transparencia y controles: métricas públicas sobre precisión clínica y tasa de errores, disponibilidad clara en español y en la región, y gobernanza que incluya revisión humana obligatoria en decisiones clínicas. Reclamamos además contratos y garantías legales que especifiquen si los datos se comparten con terceros y bajo qué condiciones; Microsoft afirma capacidad de borrar datos y desconectar fuentes, pero las políticas pueden cambiar y eso debe regularse. Mantendremos coherencia con posiciones previas: valoramos la utilidad técnica de estas ofertas (como hicimos con Anthropic y otras compañías) pero exigimos métricas públicas, disponibilidad en español y gobernanza clara sobre datos y revisión humana antes de recomendar su uso generalizado.