Équilibre de l’innovation de l’IA avec des cyber-menaces croissantes dans les soins de santé
Suivi d’un article d’un invité de Shane Cox, directeur, Cyber Fusion Center en Morganfranlin Cyber
L’intelligence artificielle transforme les soins de santé à un rythme incroyable. Du diagnostic prédictif aux opérations assistées robotiquement, le potentiel de l’IA est d’améliorer les résultats des patients et de rationaliser les opérations. Néanmoins, comme les hôpitaux, les compagnies d’assurance et les prestataires acceptent l’automatisation de l’IA contrôlée, ils ouvrent également la porte d’une toute nouvelle vague de cyber-risques. L’IA n’est plus seulement un atout; Il est également responsable s’il n’est pas correctement sécurisé.
Les mêmes avancées qui permettent à l’IA d’analyser une énorme quantité de données médicales et de détecter les maladies plus rapidement que n’importe quel médecin humain peuvent également être manipulées pour commencer les cyberattaques sophistiquées. Les menaces des menaces utilisent déjà l’IA pour créer des campagnes de phishing très convaincantes, créent des voix profondes afin de forcer les administrateurs de l’hôpital frauduleux et d’automatiser les attaques de déni (DDO), ce qui peut paralyser les systèmes de soins de santé critiques. Dans l’industrie où les temps d’arrêt peuvent faire la différence entre la vie et la mort, les paris n’ont jamais été plus élevés.
Les menaces axées sur l’IA transforment le paysage de la cybersécurité
Le passage vers les cyberattaques contrôlait l’IA oblige les équipes de soins de santé à jouer des chats et de la souris à une vitesse sans précédent. La fraude traditionnelle de phishing est apparue une fois facilement, des fautes de frappe sales et des phrases embarrassantes. Maintenant, l’IA peut générer une faille, Phishing hyper personnalisé E -Maly, imitant la langue, le ton et l’urgence de la communication légitime. Même les employés qui sont conscients de la sécurité tentent de reconnaître la différence.
DeepFake Technology a ajouté une autre couche de fraude. Imaginez que le directeur du financement de l’hôpital accepte un appel qui ressemble à un directeur financier, permettant une transmission de fil urgente pour acheter une offre médicale. La voix est terriblement connue, les détails se déconnectent et la pression sur l’action rapide est élevée. Mais ce n’est pas CFO. Il s’agit d’unfake profond généré par l’intelligence artificielle qui les a tellement convaincus de contourner même les professionnels les plus sceptiques. Ces scénarios ne sont plus hypothétiques. Maintenant, ils se produisent.
En même temps, les attaquants se déploient également Botnets contrôlés par l’IA Commencez des attaques DDOS très adaptatives. Ces campagnes sont prévues par les serveurs hospitaliers avec transmission de sources distribuées, de systèmes étonnants et les rendent inutilisables. Les botnets modernes peuvent apprendre et déplacer des tactiques en temps réel et éviter la défense traditionnelle. Les hôpitaux qui gèrent des systèmes de sécurité obsolètes sont particulièrement vulnérables à ces perturbations qui peuvent retarder les procédures d’économie de sauvetage et mettre en danger les soins aux patients.
Risques inhérents à l’IA lui-même
Les risques de l’IA ne se limitent pas aux attaquants externes. Avec ou sans supervision forte, les systèmes d’IA peuvent-ils eux-mêmes introduire une vulnérabilité nouvelle et négligée. De nombreuses organisations médicales reçoivent une intelligence artificielle pour renforcer les diagnostics, rationaliser les flux de travail et personnaliser les plans de traitement. Cependant, ces modèles ne sont aussi bons que les données sur lesquelles elles sont formées. Si un acteur malveillant a accès à l’ensemble de données de formation, il peut manipuler les résultats d’intoxication des données, injectés de données endommagées ou déformées qui déforment les prédictions et la prise de décision.
Les conséquences d’une telle attaque peuvent être graves. Le modèle manipulé par l’IA pourrait mal diagnostiquer le patient, modifier les recommandations de dosage ou préfère le traitement en fonction des fausses variables. Le potentiel d’erreurs silencieuses et systémiques est un problème croissant, car l’IA devient une décision clinique plus approfondie.
Les chatbots et les assistants virtuels alimentés par l’IA sont également devenus courants pour engager le patient, des réunions de planification à l’offre de symptômes de tri. Ces systèmes dépendent de l’API pour la communication sur les plates-formes et toute configuration incorrecte peut détecter les données sensibles. La seule API non sécurisée peut être des portes ouvertes aux attaquants, compromettant les dossiers des patients, les informations d’assurance et même les données d’évaluation clinique.
Le problème est aggravé par le fait que de nombreuses organisations de santé manquent de visibilité dans la position de sécurité de leurs concessionnaires d’IA et de nombreux fournisseurs intègrent des outils d’IA externes sans enquêter pleinement sur leurs protocoles de sécurité. Cela crée un écosystème fragmenté et surtout invisible où les applications d’IA sont hors de portée de l’équipe de sécurité interne de l’hôpital. Si les vendeurs manquent de fortes procédures de sécurité ou si la supervision est insuffisante, ce risque se développe de façon exponentielle.
Une nouvelle approche de la gestion et de la défense de l’IA
Afin de soulager ces risques, les soins de santé des soins de santé doivent introduire une politique d’administration de l’IA plus stricte et promouvoir une évaluation stricte des risques en tiers avant d’intégrer les instruments axés sur l’IA dans leur environnement. La solution d’IA doit subir des audits de sécurité réguliers, des tests de pénétration et une surveillance de l’API pour garantir que les vulnérabilités sont identifiées et réparées avant de pouvoir être utilisées. De plus, l’acceptation des architectures de confiance zéro peut aider à garantir que les outils de troisième partie abordent uniquement ce dont ils ont absolument besoin, minimisant l’exposition potentielle.
Les stratégies de sécurité conventionnelles ne suffisent plus aux organisations de santé. La défense contre les attaques axées sur l’IA nécessite plus que l’amélioration des outils de sécurité traditionnels. Toute la stratégie de sécurité doit se développer. Les systèmes de détection et de réponse gérés (MDR) doivent intégrer la détection de l’anomalie contrôlée par l’IA qui peut faire la distinction entre l’automatisation des hôpitaux normale et le comportement nocif de l’IA. Les plates-formes de sécurité devraient devenir prédictives, non seulement réactives, analyser les formules et adapter dynamiquement la défense en temps réel.
Dans le même temps, les équipes de médecine légale et d’incidents numériques (DFIR) doivent réévaluer leurs méthodes d’examen. L’approche traditionnelle de la surveillance des pistes numériques et de l’identification des signatures de logiciels malveillants est inefficace contre l’auto-apparié, les menaces générées par l’IA. Les équipes de sécurité doivent développer des capacités judiciaires avancées pour déconstruire les logiciels malveillants générés par l’IA, surveillant les tentatives de fraude avec des performances profondes et contre les chaînes offensives motivées en IA.
Assurer la sécurité à verrouiller avec l’innovation
La sécurité de l’IA ne peut plus être pensée. Il doit être intégré à chaque étape du développement et du déploiement, de la conception initiale au fonctionnement quotidien. Le leadership et les développeurs de l’IA doivent coopérer dès le début, pour construire des systèmes avec des vérifications robustes qui préfèrent la sécurité et l’intégrité des données.
L’avenir des soins de santé dépend du succès de l’IA, mais son succès dépend de la sécurité. L’industrie doit désormais agir pour construire la défense de l’IA motivée pour résister aux attaques de l’IA motivée.
À propos de Shane Cox
Shane Cox est le directeur du Cyber Fusion Center et la réponse à l’incident dans Morganfranlin Cyber. Avec plus de 20 ans d’expérience en cybersécurité, Shane se spécialise dans la construction et l’optimisation des équipes de sécurité et les programmes de détection et de réponse, la sécurité, la gestion de l’intelligence, l’automatisation, les incidents et la gestion de la vulnérabilité EDR / MDR / MDR. Il est responsable du leadership stratégique, de la croissance, de l’optimisation et de la satisfaction des services de cyber-fusion et coopère étroitement avec les chefs de file de la cybersécurité dans diverses substances verticales industrielles.
Obtenez de nouveaux soins de santé et des histoires informatiques fournies quotidiennement
Rejoignez des milliers de vos collègues de santé et collègues de santé qui postuleront pour notre newsletter quotidien.

