get_queried_object(); $id = $cu->ID; ?>
Avatar photo

Denne bloggen er basert på et innlegg som jeg holdt på lanseringen av Dag Hareides bok «Mennesket og teknomakten» i september, og er derfor muntlig i formen.

Mennesket, hjernen og teknologi er et interessant, skummelt og fortsatt litt science fiction-aktig tema. Det rommer mange muligheter til at mennesker kan leve et bedre liv. At alvorlig sykdom helbredes, at blinde kan se, døve kan høre og at lamme kan gå. Arild er lam, og siteres i bokens innledning:

«Hver natt drømmer jeg om et teknologisk gjennombrudd som fører til at jeg kan gå.»

– Arild –

La oss forfølge denne drømmen.

Vi står i et klassiske dilemma: Oppsiden ved teknologien er enorm, men nedsiden er rett ut sagt svært skremmede. Vi snakker om «det oppgraderte mennesket» som kan styre objekt og kroppsdeler ved tankekraft, implantater i hjernen og kobling mellom hjerne og datamaskin. Da er vi straks over i en diskusjon om supersoldater, eller supermennesker, og det som ofte kalles en cyborg.

Fire rettigheter for menneskets hjerne

Spørsmålet er om det forskningsfeltet som beskrives i Dag Hareides bok er tilstrekkelig regulert. Finnes det regler som forhindrer uetisk forskning, og uetisk bruk? Og hvordan skal vi sørge for at vi ikke stanser en utvikling som gjør at Arild kan få oppfylt sin største drøm?

27 nevroteknologi-forskere har foreslått fire rettigheter for menneskets hjerne:

  • Rett til personvern og samtykke
  • Rett til ikke å bli diskriminert
  • Rett til egen identitet og til handlefrihet
  • Rett til å si nei til oppgradering

Dette er et godt utgangspunkt, men dessverre er det slik at regulering alltid ligger etter den teknologiske utviklingen. Dessuten er lovgivning ofte «bare» lovgivning, og de etiske aspektene ved et forskningsfelt eller en teknologi, er vanskelige å regulere. Dette diskuterer vi mye på personvernområdet, der teknologien også raser av gårde, og lovgivningen oppdateres hvert tjuende år. Ta forsikring for eksempel: Vi kan forutse mange sykdommer ved å kartlegge livsmønsteret til folk i detalj, og vi kan beregne en forsikringspremie som tilsvarer den individuelle risikoen for å bli syk. Det er nesten umulig å lovregulere dette, derfor må etikken ligge som et skall rundt lovgivningen. Og det etiske spørsmålet som oppstår her, er selvsagt hvor langt vi skal gå i å individualisere forsikringspremien, før vi undergravet selve forsikringsproduktet, som jo er et kollektivt produkt.

Etikkdiskusjonen må derfor føres parallelt med diskusjonen om juss og rettigheter.

Men trenger hjernen rettigheter? Ettersom hjernen tilhører et menneske, vil de rettighetene vi har som mennesker, også gjelde for hjernen vår. Det er derfor nyttig å ta utgangspunkt i Den Europeiske Menneskerettighetskonvensjonen (EMK). Her fastslås blant annet et forbud mot diskriminering, retten til tankefrihet og selvsagt min favoritt, retten til privatliv. Disse artiklene er relevante i en diskusjon om hjernens rettigheter.

Behandling av hjernedata

Men også personvernforordningens prinsipper kan ha betydning. Hvorvidt forordningen gjelder dersom vi kobler en datamaskin til hjernen, avhenger av om dataene som hentes fra hjernen skal inngå i et register, eller om behandlingen av hjernedataene skjer helt eller delvis automatisk. Det lar vi ligger nå. Det viktige er imidlertid prinsippene som knesettes i forordningen:

  • Data skal behandles lovlig, åpent og rettferdig.
  • Data skal samles inn for spesifikke formål.
  • Innsamling skal begrenses til det som er nødvendig for å nå formålet.

Disse prinsippene suppleres av konkrete lovbestemmelser:

  • Behandlingen er bare lovlig dersom det foreligger en lovhjemmel, et samtykke eller lignende.
  • Et samtykke skal være frivillig, spesifikt, informert og utvetydig.
  • Sensitive opplysninger er underlagt et spesielt vern, og er i utgangspunktet forbudt å behandle. Hjernedata vil selvsagt være sensitive.
  • Borgeren gis en rekke rettigheter, som rett til innsyn, rett til sletting, rett til å få god informasjon og så videre.

Vi må også nevne ansvarlighetsprinsippet, som pålegger virksomhetene en rekke plikter, for eksempel å utrede konsekvenser for personvernet og å ha full oversikt over hvilke data som behandles og hva de brukes til.

Regulering av hjernen

Er så prinsippene i personvernforordningen anvendelige også for en fremtidig regulering av hjernen? Til en viss grad, ja. Forordningen er dessuten teknologinøytral og i stor grad bygd på prinsipper som kan anvendes på nye utfordringer og «leve med» den teknologiske utviklingen. Men en god regulatorisk modell må også bygge på de spesielle utfordringene, og mulighetene, som finnes i en spesiell teknologi. I dette tilfellet en hjerne som er koblet til en datamaskin.

Hjernen er noe for seg selv. Det krever en helt annen tilnærming til de utfordringene vi her diskuterer. Dessuten vil det være betydelige utfordringer knyttet til håndhevelse, for eksempel av et tilsyn eller en nasjonal eller internasjonal domstol, særlig fordi det tar veldig lang tid å få avgjort en sak. Skal en stat saksøkes fordi den krenker EMK, tar det mange år før saken er ferdigbehandlet.

Selvbestemmelse og makt

Det er dessuten ytterligere to utfordringer: Menneskets selvbestemmelse og ønsket om politisk makt. Kan, og skal, vi nekte folk å takke ja til helt frivillig å gå inn i et etisk betenkelig forskningsprosjekt, eller takke nei til å bli en supersoldat som kan motstå et kjemisk angrep? Når noen først samtykker, kan det skape et samtykkepress vi ikke vet hvor vil ende. Og hvordan regulere supermakter? Hvordan regulere USA dersom de ønsker å utvikle en slik soldat?

Jeg er usikker på om dagens regulatoriske modeller passer for den utviklingen som beskrives i boka til Dag Hareide.

I Datatilsynet starter vi nå, med støtte fra regjeringen, en regulatorisk sandkasse. Her kan bedrifter få prøvd ut sine tekniske løsninger, slik som en app for ansiktsgjenkjenning eller en trygg måte å håndtere samtykker på, før de slippes på markedet. Kanskje er det en vei å gå også på andre områder hvor teknologien utvikles i voldsomt tempo og hvor teknologi, etikk og juss henger tett sammen? Og kanskje særlig når vi snakker om «dual use», at teknologien som utvikles kan brukes både til militære og sivile formål.

Jeg vil at Arild skal kunne gå igjen, men jeg vil ikke at er supersoldat skal kunne styre en dronesverm med bare tankene sine.