Protection des données personnelles pour le risque des patients: lacunes cachées dans la dés-identification des données de santé (et comment les réparer)
Suivi d’un article d’un invité de Docteur Michael Blum, fondateur et PDG de Beekeekerai
À une époque où une seule séquence d’ADN peut guérir les maladies, et la numérisation de la rétine peut révéler des maladies chroniques importantes et indésirables, la dés-identification de la pratique de trois ans des données est devenue l’équivalent de l’enseignement papier dans le monde numérique dans le monde numérique.
Alors que la HIPAA a révolutionné la protection des données des patients en 1996, le paysage numérique interconnecté d’aujourd’hui a rendu ces garanties obsolètes.
Chaque jour, les organisations de santé partagent une énorme quantité de données sur les patients “identifiées” pour soutenir les innovations de l’intelligence artificielle et travailler sous une illusion dangereuse que la suppression de 18 identifiants spécifiques rend les données des patients vraiment anonymes.
Mais dans un monde où l’intelligence artificielle peut relier des milliers de points de données en quelques secondes et où les traces des médias sociaux créent les ombres numériques de notre vie personnelle, cette hypothèse n’est pas seulement des millions de patients menaçant.
L’industrie médicale se situe à une intersection critique
- Continuez à compter sur une protection inadéquate de la vie privée qui a été conçue pour la numérotation de l’âge Internet
OU
- Acceptez les technologies émergentes qui peuvent réellement répondre à la promesse originale de HIPAA pour protéger la vie privée du patient et en même temps pour procéder à l’innovation médicale.
HIPAA: Premier passage à la protection de la protection des données des patients
Il y a près de 30 ans, dans les premiers jours des dossiers de santé électroniques et d’Internet et avant les smartphones et les médias sociaux, le ministère de la Santé et des Services sociaux (HHS) Normes de confidentialité Informations de santé identifiables individuellement («Règle de protection des données personnelles») Pour la mise en œuvre des exigences de la porterie et de la responsabilité de l’assurance maladie de 1996 (HIPAA).
La règle de protection des données personnelles des droits civils HHS (OCR) a établi un ensemble de normes qui contrôlent l’utilisation et la libération de “données protégées” “des entités couvertes” destinées à protéger les données sur les patients et la confidentialité.
Afin d’éviter une influence négative sur la recherche biomédicale, la règle de la protection des données personnelles a été sculptée rechercheainsi qu’une utilisation Fichiers de données limitéeset déterminé que les données de désintégration n’ont pas été considérées comme PHI.
Ces exceptions sont devenues largement utilisées comme recherche basée sur les données, en particulier avec l’avènement de l’intelligence artificielle.
Certains systèmes de soins ont développé des versions de désintégration de leurs ensembles de données pour les patients pour soutenir l’utilisation des données et d’autres ont rejoint les activités commerciales.
Le paysage technologique changeant a réduit la protection de la dés-identification des données
La montée des médias sociaux et la diffusion des données identifiables individuellement disponibles sur Internet et via les agrégateurs de données de troisième partie ont de manière significative Réduction de la protection de la vie privée fournie par la dés-identification des données Et a fondamentalement changé le risque de vie privée du patient.
En fait VA Document 2018 publié dans NatureLes scientifiques ont montré que 99,8% des patients d’un ensemble de données identifié ne pouvaient être identifiés qu’avec 15 attributs démographiques.
De plus, parce que la règle de protection des données personnelles affirme que les données de désintégration ne sont pas considérées comme une protection liée au PHI de la confidentialité HIPAA dès que l’ensemble de données est désidentiment.
En conséquence, il n’y a pas de protection ou d’utilisation si les données de désintégration sont réidentifiées par un tiers qui n’est pas une entité couverte définie par HIPAA, puis utilisée à des fins dangereuses telles que le vol d’identité ou la fraude dans les soins de santé.
Ces préoccupations ont conduit l’UE à se déplacer pour HIPAA ConfidentialitéOrdonnant que les données de désintégration ne peuvent pas être réidentifiées.
L’identification des données exclut les types importants de données pour l’IA clinique
Plusieurs types de données importants ne peuvent pas être identifiés ou peuvent être trop risqués ou longs pour utiliser la dés-identification pour protéger la confidentialité individuelle, y compris certaines données génomiques, la rétine et l’iris, l’affichage / vidéo et même la santé des déterminants sociaux.
Les données désintéressées aggravent les performances de l’IA
Dans certains cas, le processus d’identification peut provoquer des données identifiées non adaptées à l’objectif prévu. Par exemple, si un algorithme a été développé pour prédire les résultats / date basés sur le temps, mais que les données ont été ajustées au hasard pour couvrir les données de service dans l’identification, les performances de l’algorithme peuvent être compromises par le processus de dé-identification. .
Plusieurs experts ont Publié Sur l’importance des données dans le monde réel dans l’évaluation des modèles AI.
Les nouvelles technologies éliminent la nécessité de dés-identification des données
Désormais, une nouvelle classe de «technologie de confidentialité» est disponible, offrant une protection des données beaucoup plus robuste des patients avec une fidélité et une convivialité améliorées des données, sans coûts significatifs et obligation de temps pour identifier les données.
Par exemple, les plates-formes informatiques confidentielles peuvent fournir une protection complète des données par chiffrement de bout en bout et des enclaves informatiques sécurisées, éliminant la nécessité de transférer des données à des tiers.
La technologie informatique confidentielle permet aux organisations de fournir des soins de santé:
- Gardez les données dans votre environnement de données HIPAA, protégé avec une protection supplémentaire pendant un cycle informatique
- Pour utiliser en toute sécurité vos actifs de données pour les projets de recherche internes et extramuraux (y compris les projets financés dans le domaine)
- Pour protéger la propriété intellectuelle des développeurs d’IA
Surtout, ces technologies des développeurs d’IA travaillent avec des données de patients non adaptées dans le monde réel, offrant des performances de modèle plus fiables et se conforment aux exigences de contrôle pour la modélisation et les performances des applications dans le monde réel.
Qu’en est-il des plateformes éducatives fédérées ou un calcul sûr de plusieurs calculs?
Les plates-formes éducatives fédérées éliminent également la nécessité de transférer des données en dehors du titulaire de données protégées, mais peuvent être attaqué Et ils sont soumis à des fuites de données dans les poids et les paramètres de l’entraînement.
De plus, la formation fédérée elle-même protège le modèle IP AI.
La combinaison de l’apprentissage fédéré avec un calcul confidentiel pour créer un apprentissage fédéré sûr est désormais possible et peut résoudre ces défis.
Un calcul sécurisé de plusieurs multiples Il peut également protéger les données et les algorithmes avec un chiffrement et un modèle avancées, mais nécessite des niveaux plus élevés de coopération et des interactions coordonnées entre les détenteurs de données et les développeurs d’algorithmes qui peuvent être exigeants dans des ressources complexes.
Il est temps de mettre à niveau notre approche de la confidentialité vers PHI dans les soins de santé AI.
Bien que la dés-identification des données ait été fournie avec un PHI alternatif utile dans le monde réel depuis plus de 30 ans, ce n’est pas une solution raisonnable pour la protection de la vie privée de nos patients ou du développement et de la validation d’une importance critique des modèles cliniques d’IA et Applications motivées par l’intelligence artificielle et l’IA. .
Il est temps pour nos secteurs et régulateurs d’aller de l’avant et d’accepter les technologies et les plates-formes les plus modernes augmentant la confidentialité pour accélérer le développement et la validation de l’IA, tout en réduisant le risque de perturber la vie privée du patient et les dommages ultérieurs.
Voici quelques étapes supplémentaires à considérer
Aux organismes de réglementation
Il était temps de passer aux réglementations de protection des données des patients. HIPAA, autrefois une norme pionnière, est désormais un cadre obsolète, mal équipé pour résoudre des problèmes de confidentialité complexes des soins de santé modernes et de l’IA contrôlée par l’innovation.
Nous appelons les organismes de réglementation à développer d’urgence une nouvelle étalon-or pour la protection des données du patient-dix, qui comprend la confidentialité, la plate-forme de supplémentation zéro et les mécanismes sophistiqués de protection des données.
Il ne s’agit pas seulement de se conformer aux réglementations, mais de créer un cadre robuste et d’amarrage vers l’avant qui protège la vie privée des patients et accélère en même temps l’innovation médicale, garantissant que les progrès technologiques et les droits individuels ne concourent pas mais des objectifs supplémentaires.
Parce que nous savons que cela prendra du temps …
Leaders de l’industrie, médecins, gestionnaires et défenseurs des patients
Nous ne pouvons pas nous permettre d’attendre que les régulateurs se rattrapent.
Actuellement, il dure 2-3 ans et 3 à 5 millions de dollars avant d’évoluer et de déployer un algorithme fiable et généralifiable – et c’est avec une petite IP ou une confidentialité!
Le La technologie de protection des données existe déjà dans la gestion de la santé– et c’est notre responsabilité collective pour sa mise en œuvre.
Des prestataires de soins de santé aux gestionnaires technologiques, des groupes pour la défense des patients aux institutions de recherche, nous devons activement accepter les dernières technologies de confidentialité qui peuvent débloquer en toute sécurité le potentiel de l’IA clinique et de la médecine personnalisée.
En adoptant la gestion, nous pouvons montrer que la protection de la vie privée des patients n’est pas un obstacle à l’innovation, mais un moyen critique d’une solution éthique, accélérée et de transformation des soins de santé.
Obtenez de nouveaux soins de santé et des histoires informatiques fournies quotidiennement
Rejoignez des milliers de vos collègues de santé et collègues de santé qui postuleront pour notre newsletter quotidien.
