6 Lignes directrices pour la sécurité de l’IA pour les organisations de santé

6 Lignes directrices pour la sécurité de l’IA pour les organisations de santé

1. Déploiement d’un outil d’instance privé AI

Pour assurer l’IA dans les hôpitaux, Pete Johnson, CDO CDW pour l’intelligence artificielle du CTO recommande d’utiliser des solutions internes qui permettent aux médecins cliniques et à d’autres employés d’expérimenter le chat d’IA sans exposer les données dans la sphère publique. Les organisations peuvent également travailler avec un modèle public qui a la bonne protection de la vie privée.

“Tous les trois grandes hyperscalers – Amazon, Microsoft et Google – ont dans leurs accords de protection des données personnelles qu’ils n’utiliseront aucun de votre contenu rapide pour retirer les modèles”, explique Johnson. “Vous êtes protégé de cette manière, même si vous n’avez pas ce programme d’IA en place.

2. Déterminer le plan d’action en cas d’attaque

Le plan d’action doit décrire en détail quoi faire si les données sont violées ou si le Mail à phishing collectif circule lorsqu’il essaie de faire une fraude financière.

“Il est incroyablement important que les experts informatiques comprennent exactement ce que sont ces nouvelles surfaces offensives et à quoi elles ressemblent, puis commencent à construire un cadre pour cela”, explique Hawking. “Cela comprend tout – matériel, logiciel et architecture informatique réelle – mais aussi des principes et des réglementations pour résoudre ces problèmes.”

EXPLORER: Pour faire face à des préoccupations concernant la confiance et la protection des données personnelles pour soutenir l’acceptation de l’IA dans les soins de santé en totalité.

3. Prenez de petites mesures pour mettre en œuvre l’IA

En tant qu’organisations médicales, elles expérimentent l’IA, elles devraient commencer petit. Par exemple, ils peuvent utiliser l’écoute environnante et la documentation intelligente pour réduire la charge de médecins et de médecins.

“Vous ne prenez pas vos actifs de données et ne vous rendez pas à une chaussure d’IA. Au lieu de cela, soyez très prescrit sur les problèmes que vous essayez de résoudre”, explique Johnson.

4. Utilisez des comptes organisationnels avec des outils d’IA

Hawking met en garde contre l’utilisation des comptes de montage E-Mail pour empêcher la création de points d’entrée pour partager des données qui pourraient être utilisées pour former des modèles sans consentement.

5. outils vétérinaires AI, peu importe où ils sont utilisés

Hawking recommande également que l’organisation crée une équipe de supervision pour vérifier les outils de l’IA. L’équipe pourrait inclure des parties prenantes telles que les services informatiques, les médecins et même les défenseurs des patients.

“Cela ne signifie pas qu’il verra toute l’IA, mais comprendra exactement ce qu’il est utilisé et pourquoi il est utilisé”, explique Hawking.

Autre Suivant: Stratégie de gestion des données de l’IA qui vous préparera au succès.

6. effectuer une évaluation complète du risque et un audit complet

Une évaluation approfondie des risques permet aux organisations médicales d’identifier les risques de conformité aux réglementations et d’élaborer des politiques et procédures pour l’utilisation de l’IA générative.

“Au sein de l’audit IA, il est vraiment important d’obtenir le bon aperçu de la façon dont toutes ces choses se produisent”, explique Hawking. “C’est le point de départ de la bonne administration des affaires publiques.”

Références de sources

You might also like