6 linee guida sulla sicurezza dell'intelligenza artificiale per le organizzazioni sanitarie

Per proteggere l'intelligenza artificiale negli ospedali, Pete Johnson, CTO del settore intelligenza artificiale di CDW , raccomanda di utilizzare una soluzione interna che consenta a medici e altro personale di sperimentare un'app di chat basata sull'intelligenza artificiale senza esporre i dati al pubblico. Le organizzazioni possono anche lavorare con un modello pubblico che garantisca le opportune tutele della privacy.
"Tutti i Big Three hyperscaler – Amazon , Microsoft eGoogle – hanno nei loro accordi sulla privacy dei dati che non utilizzeranno i tuoi contenuti prompt per riaddestrare i modelli", afferma Johnson. "In questo modo, sei protetto anche se non hai quel programma di intelligenza artificiale in locale. Se lo usi nel cloud, l'accordo sulla privacy dei dati garantisce che non utilizzeranno i tuoi dati per riaddestrare i modelli".
2. Stabilire un piano d'azione in caso di attaccoUn piano d'azione dovrebbe specificare cosa fare in caso di violazione dei dati o di diffusione di un'e -mail di phishing di massa in un tentativo di frode finanziaria.
"È estremamente importante che i professionisti IT comprendano esattamente quali sono queste nuove superfici di attacco e come si presentano, per poi iniziare a costruire un framework per affrontarle", afferma Hawking. "Questo include tutto – l'hardware, il software e l'architettura IT vera e propria – ma anche le policy e le normative in vigore per affrontare queste problematiche".
3. Fare piccoli passi verso l'implementazione dell'intelligenza artificialeQuando le organizzazioni sanitarie sperimentano l'intelligenza artificiale, dovrebbero iniziare in piccolo. Ad esempio, possono utilizzare l'ascolto ambientale e la documentazione intelligente per ridurre il carico di lavoro di medici e operatori sanitari.
"Non prendete l'intero patrimonio di dati e rendetelo disponibile a un bot di intelligenza artificiale. Piuttosto, siate molto prescrittivi sui problemi che state cercando di risolvere", afferma Johnson.
4. Utilizzare gli account aziendali con strumenti di intelligenza artificialeHawking mette in guardia dall'utilizzare account di posta elettronica personali per evitare di creare punti di accesso per la condivisione di dati che potrebbero essere utilizzati per addestrare modelli senza consenso.
5. Strumenti di intelligenza artificiale veterinaria, indipendentemente da dove vengano utilizzatiHawking raccomanda inoltre alle organizzazioni di creare un team di supervisione per valutare gli strumenti di intelligenza artificiale. Il team potrebbe includere stakeholder come il reparto IT, i medici e persino i rappresentanti dei pazienti.
"Non significa bloccare tutta l'intelligenza artificiale, ma capire esattamente cosa viene utilizzato e perché viene utilizzato", afferma Hawking.
6. Eseguire una valutazione completa dei rischi e un audit completoUna valutazione approfondita dei rischi consente alle organizzazioni sanitarie di identificare i rischi di conformità normativa e di sviluppare politiche e procedure per l' uso dell'intelligenza artificiale generativa .
"È davvero importante, nell'ambito di un audit sull'intelligenza artificiale, avere una panoramica completa di come avvengono tutti questi processi", afferma Hawking. "Questo è il punto di partenza di una buona governance".
healthtechmagazine