get_queried_object(); $id = $cu->ID; ?>
Bjørn Erik Thon

I en kronikk på Ytring beskylder Morten Goodwin Datatilsynet for å være en bremsekloss for bruken av kunstig intelligens, at folk vil ofre personvernet sitt for bedre helsetjenester og at det digitale Norge bør få like stor tilgang på data som Facebook. Vi mener at personvern og kunstig intelligens kan gå hånd i hånd.

Innlegget stod på trykk på NRK Ytring 18. februar

Datamengden i samfunnet er helt enorm, men det regelverket som regulerer hvordan disse datamengdene kan brukes, er fra år 2000. EU vedtok derfor et helt nytt regelverk om behandling av personopplysninger som trer i kraft 25. mai i år. Bruken av kunstig intelligens reguleres også av disse reglene.

Bedre rutiner for behandling av data

Kunstig intelligens kan gi oss smartere byer, en mer effektiv offentlig forvaltning og bedre behandling av sykdom. Dette forutsetter bruk av personopplysninger, kanskje helt ned på detaljnivå; hva vi spiser, hvem vi omgås og hvor mye vi drikker, for ikke å snakke om vår genetiske sammensetning og våre arvelige disposisjoner. Et viktig prinsipp i de nye reglene er derfor at virksomhetene får større ansvar og må ha bedre rutiner for behandlingen. Når det skal utvikles tjenester, må altså virksomhetene ha oversikt over datakildene, lagring og bruk, samt over deling med tredjeparter. De må også identifisere risiko. Saken der Helse Sør-Øst ville tjenesteutsette datadriften til blant annet Bulgaria viser hvor galt det kan gå dersom dette ikke blir gjort riktig.

Et annet viktig prinsipp er innebygd personvern som betyr at personvernet bygges inn i teknologien. Både de som forsker på kunstig intelligens og de som bruker kunstig intelligens i for eksempel utviklingen av nye behandlingsformer, må utfordres til å finne måter å bruke data på som ikke utfordrer personvernet i for stor grad. De må også kjenne til at det finnes noen klare lovmessige rammer man skal holde seg innenfor, og ikke minst at det har en etisk dimensjon.

Tillit hos befolkningen

Jeg tror mange er villig til å dele data, men det må skje i åpenhet. Folk må ha tillit til at dataene behandles skikkelig. De må ha kontroll på dataene oppbevares trygt og at den man har betrodd personlige data til, har kontroll på datastrømmen. Nettopp dette tillitsaspektet er viktigere enn noen gang. Alle som behandler data må forstå at de er helt avhengige av tillit hos befolkningen. En tillit som må forvaltes med større respekt jo mer sensitive dataene er.

Goodwins sammenligning med Facebook halter stygt. Facebook er et nettsamfunn basert på en frivillig avtale mellom forbruker og selskap – brukeren velger selv hvilke data hun deler. Helseforskning er og skal være strengt regulert, noe de aller fleste som driver slik forskning er helt enig i. Det dreier seg om svært sensitive data som det vil være helt katastrofalt om brukes feil, eller kommer på avveier. Da bryter tilliten til helseforskningen sammen, noe som kan føre til at folk vegrer seg for å dele opplysninger med helsetjenesten, eller i verste fall velger å ikke motta helsehjelp fordi de ikke har kontroll på og tillit til hvordan opplysningene deres vil bli brukt.

Kan personvern og kunstig intelligens gå hånd i hånd? Ja, mener vi i Datatilsynet. Men da må vi komme oss et hakk videre enn naive spissformuleringer om at «vi må datamaksimalisere.» Vi må utvikle måter som gjør at vi kan ivareta personvernet, og bruke kunstig intelligens til å skape et bedre samfunn. Vi må ikke la oss styre av teknologien, men styre teknologien i en retning som gagner oss som samfunn. Og Goodwin må forstå at regelverket er der for å styre utviklingen i riktig retning, og at det er Stortinget, ikke Datatilsynet, som vedtar disse lovene.

Les vår rapport om kunstig intelligens på datatilsynet.no