Home Regionaal nieuws Wat betekent het AI-plan voor NHS-patiëntengegevens en is er reden tot zorg?...

Wat betekent het AI-plan voor NHS-patiëntengegevens en is er reden tot zorg? | personeelsbestand

77
0

De Britse ministers hebben zich ertoe verbonden een nationale databibliotheek op te richten voor het bouwen van AI-modellen als onderdeel van hun AI-actieplan.

De bibliotheek zal bestaan ​​uit door de overheid gecontroleerde gegevens en er zullen ten minste vijf openbare datasets met “hoge impact” worden samengesteld. Premier Keir Starmer gaf maandag aan dat patiëntgegevens van de National Health Service onderdeel zouden kunnen uitmaken van de bibliotheek.

Gezondheidsgegevens zijn een gevoelige kwestie in een tijdperk van criminele hackers, cyberspionage door schurkenstaten en algemene zorgen over de robuustheid van hulpmiddelen voor kunstmatige intelligentie. Hier beantwoorden we enkele vragen over het mogelijke gebruik van NHS-gegevens.


Wat zegt het AI-actieplan over gezondheidsdata?

Het plan, geschreven door tech-investeerder Matt Clifford, verwijst niet expliciet naar gezondheidsgegevens, maar roept op tot de oprichting van een nationale databibliotheek die door tech-startups en onderzoekers kan worden gebruikt om nieuwe modellen te trainen.

Maar Starmer was maandag opener over het gebruik van NHS-gegevens en zei dat er een “enorme kans” was om de gezondheidszorg te verbeteren. Hij zei: “Ik denk niet dat we een defensieve houding moeten aannemen die de doorbraken die we hier nodig hebben in de weg zou staan.”

NHS-trusts hebben patiëntgegevens al gebruikt om AI-modellen te ontwikkelen om aandoeningen te voorspellen zoals: hypertensie En oogziekten.


Wat zijn de zorgen over het gebruik van gezondheidsgegevens op het gebied van kunstmatige intelligentie?

Persoonlijke gezondheidsgegevens zijn van nature extreem gevoelig en de kwetsbaarheid van de digitale omgeving is al benadrukt door recente ransomware-aanvallen die NHS-trusts treffen.

Andrew Duncan, directeur kunstmatige intelligentie bij het Alan Turing Institute in Groot-Brittannië, zegt dat zelfs geanonimiseerde gezondheidsgegevens kunnen worden gemanipuleerd om een ​​patiënt te identificeren via een proces dat bekend staat als ‘heridentificatie’, waarbij ‘geanonimiseerde’ gegevens kunnen worden gemanipuleerd. gekoppeld aan andere bestaande gegevens om iemand te identificeren.

“Als je eenmaal begint met het beperken van de zaken, kun je gemakkelijk beginnen met het herdefiniëren van mensen”, zegt hij. Duncan voegt eraan toe dat AI-modellen kunnen worden getraind om heridentificatie te voorkomen, maar hij waarschuwt dat “dit allemaal heel zorgvuldig moet gebeuren.”

MedConfidential, dat campagne voert voor privacy in de gezondheidszorg, wil ook duidelijkheid over de vraag of een gezondheidsdataset patiënten zal respecteren die een opt-outovereenkomst hebben ondertekend die verhindert dat hun gegevens worden gebruikt voor onderzoek en planning in Groot-Brittannië. Ongeveer 6% van de NHS-patiënten ondertekende de opt-out.


Worden de gegevens gebruikt voor commerciële doeleinden?

Het plan stelt dat publieke en private datasets “innovatie van Britse startups” mogelijk zullen maken, wat betekent dat particuliere bedrijven toegang zullen hebben tot het materiaal. Overheidsfunctionarissen hebben niet uitgesloten dat gegevens voor winstdoeleinden worden gebruikt.

Het plan maakt echter duidelijk dat ministers en functionarissen rekening moeten houden met kwesties als “publiek vertrouwen, nationale veiligheid, privacy, ethiek en gegevensbescherming”.

In 2017 kwam een ​​partnerschap tussen de NHS en een particulier AI-bedrijf in botsing met de Britse dataregulator, die constateerde dat het Londense Royal Free Hospital niet had voldaan aan de wetgeving inzake gegevensbescherming nadat het de persoonlijke gegevens van 1,6 miljoen patiënten had overgedragen aan de AI-eenheid van Google. . , Diepe geest. De gegevensoverdracht was onderdeel van een systeemproef voor de diagnose van acuut nierletsel.


Waar kunnen de gegevens voor gebruikt worden?

In zijn toespraak op maandag gebruikte Starmer het voorbeeld van kunstmatige intelligentie die vorig jaar bij een medisch noodgeval werd gebruikt om de exacte locatie van een bloedstolsel in de hersenen van iemand die een beroerte kreeg, te bepalen. Hij zei dat patiëntgegevens via kunstmatige intelligentie kunnen worden gebruikt om beroertes in de toekomst te ‘voorspellen en te voorkomen’.

AI-onderzoeken uitgevoerd door NHS-trusts wijzen ook op een reeks toepassingen, van het voorspellen welke patiënten waarschijnlijk vaak de spoedeisende hulp zullen bezoeken tot het identificeren van mensen die risico lopen op diabetes type 2.


Geanonimiseerde gegevens vallen niet onder de Algemene Verordening Gegevensbescherming (AVG), waardoor het gebruik van de gegevens juridisch gezien minder problematisch zou zijn. als het in deze categorie valt.

Tenzij volledig geanonimiseerd, zijn zowel de AVG als de common law-plicht tot vertrouwelijkheid van toepassing; Dit betekent dat voor het gebruik ervan toestemming van de patiënt vereist is, hoewel er een uitzondering is in het algemeen belang.

Kate Brimsted, partner bij advocatenkantoor Shoosmiths, zei: “Echte en effectieve anonimisering zou betekenen dat de Britse AVG niet van toepassing zou zijn. Het zou ook privacybeperkingen overwinnen. Maar het bieden van sterke anonimisering is geen eenvoudige taak; het is meer dan simpelweg namen verwijderen en andere voor de hand liggende identificatiegegevens.” Het is veel complexer.”