Microsoft Copilot Health centralise les dossiers médicaux personnels

Microsoft veut accéder à vos dossiers médicaux. La société a lancé jeudi, 12 mars, Copilot Health, une fonctionnalité d’IA qui rassemble vos antécédents médicaux personnels provenant d’appareils portables, de résultats d’analyses de laboratoire et de systèmes hospitaliers, puis permet aux utilisateurs de poser des questions sur l’ensemble de ces informations via une interface unique.

Cela représente une quantité considérable de données sensibles qui se retrouvent entre les mains d’une entreprise qui, il faut le noter, n’est pas légalement tenue de les traiter de la même manière que votre médecin.

Cette fonctionnalité s’inscrit dans le cadre plus large du produit Copilot de Microsoft et se connecte aux dossiers médicaux de plus de 50.000 hôpitaux et organismes de santé américains via une plateforme appelée HealthEx.

Les résultats de laboratoire sont fournis par Function, une entreprise spécialisée dans les technologies de la santé. Les appareils portables d’Apple, d’Oura, de Fitbit et de plus de 50 autres fabricants peuvent se connecter directement au tableau de bord.

La page d’accueil regroupe le nombre de pas, les rappels de rendez-vous et d’autres indicateurs de santé en fonction de ce que les utilisateurs choisissent de partager. Elle offre également l’accès à des annuaires de prestataires, permettant aux utilisateurs de rechercher des médecins par spécialité, lieu, langue et assurance acceptée.

Microsoft présente cela comme un moyen de mieux comprendre votre santé, et non de remplacer votre médecin. Ce qu’il construit en réalité, c’est une couche centralisée de surveillance de la santé qui se superpose à l’écosystème fragmenté des hôpitaux, des laboratoires et des fabricants d’appareils portables, et qui regroupe tout en un seul endroit.

Cela peut s’avérer véritablement utile. Mais cela concentre également une quantité importante de données personnelles sensibles dans un produit qui n’est pas conforme à la loi HIPAA.

Ce dernier point est plus important que ne le laisse entendre le communiqué de presse de Microsoft. La loi HIPAA (Health Insurance Portability and Accountability Act) a pour but de définir des exigences de sécurité pour les données de santé électroniques et de restreindre leur utilisation et leur divulgation.

Les hôpitaux et les médecins qui enfreignent la loi HIPAA s’exposent à des amendes et à une éventuelle responsabilité pénale. Microsoft n’est confronté à aucune de ces deux situations, car il n’est pas tenu de se conformer à la loi HIPAA pour exploiter Copilot Health.

Le Dr Dominic King, vice-président chargé de la santé chez Microsoft AI, a abordé cette question directement avant le lancement : « La loi HIPAA n’est pas requise pour une expérience grand public comme celle-ci, lorsque vous utilisez vos propres données. »

Il a ajouté : « Cependant, chez Copilot, nous estimons qu’il est extrêmement important de respecter toutes les meilleures normes existantes. Nous annoncerons donc prochainement des mises à jour concernant notre position sur ce que l’on appelle les « contrôles HIPAA ». » Le Dr King n’a pas précisé en quoi consisteraient exactement ces mises à jour.

Microsoft met en avant une certification ISO 42001, une norme internationale couvrant l’utilisation responsable de l’IA, la traçabilité et la transparence. Il s’agit d’une véritable certification, partagée avec Microsoft 365 Copilot et Microsoft 365 Copilot Chat. Elle ne remplace toutefois pas les contrôles HIPAA et ne restreint pas ce que Microsoft peut faire avec les données de santé de la même manière que la loi fédérale restreint votre médecin.

L’entreprise affirme que les discussions sur la santé sont « isolées du Copilot général et soumises à des contrôles supplémentaires en matière d’accès, de confidentialité et de sécurité », et que les données issues de ces discussions ne sont pas utilisées pour entraîner ses modèles d’IA.

Les utilisateurs peuvent supprimer leurs données de santé ou déconnecter les sources de données à tout moment. Il s’agit là d’engagements importants. Ils sont également volontaires, ce qui signifie que Microsoft peut les réviser à tout moment en mettant à jour sa politique de confidentialité. Il n’existe aucun filet de sécurité réglementaire si l’entreprise venait à le faire.

 

yogaesoteric
31 mars 2026

 

Also available in: English

Leave A Reply

Your email address will not be published.

This site uses Akismet to reduce spam. Learn how your comment data is processed.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More