get_queried_object(); $id = $cu->ID; ?>

En sausoppskrift er egentlig litt som en algoritme.

Noe av det beste jeg vet er bearnaisesaus. Jeg skal kort fortelle hvilke muligheter man har til å lage en bearnaise.

  • Vi kan kjøpe en pose fra Toro, ha i smør og melk, og koke i fem minutter. Resultatet blir helt ok.
  • Vi kan bruke egg, smør, estragon og bearnaise-essen. Da blir det litt mer avansert.
  • Vi kan lage essensen selv. Da blir det enda mer avansert.
  • Eller vi kan blande inn litt tomatpure. Da blir det en choron-saus, og vi begynner å fjerne oss fra det opprinnelige produktet.

Egentlig er en sausoppskrift en algoritme. Den enkle, fra Toro, er ganske enkel å kontrollere. Vi kan lese på pakken hva som er i den, og det å kontrollere smør og melk er en smal sak. Men jo flere elementer vi bygger inn i sausen, eller algoritmen, jo vanskeligere blir det å ha kontroll over sluttproduktet. Mye kan gå feil – sausen kan skjære seg eller algoritmen kan gi en skjevt bilde av en person. Vi kan smugle inn en ny ingrediens, for eksempel mel, som vi kanskje ikke engang merker på smaken, men som en person med søliaki vil bli meget syk av – noe som er fryktelig vanskelig å kontrollere. Slik er det med en algoritme også. Den kan, hvis den er veldig avansert, produsere resultater som er veldig vanskelig å forutse.

Det lille minuttet du har brukt på å lese dette blogginnlegget hittil, har det blitt sendt 2,5 millioner snapper, det er gjort 4,1 millioner søk på Google og det har blitt sveipet 1,6 millioner ganger på Tinder. De dataene vi legger igjen blir brukt til noe. De kan inngå som en del av beslutningsgrunnlaget som avgjør om vi skal få lån, hva slags annonse vi skal få vist på en nettside eller, som i Kina, om vi får leid bil eller hvor høyt depositum vi må betale når vi leier leilighet.

Å møte denne utviklingen betyr at vi må diskutere lovverk, etikk og nye måter å regulere på. Og jeg skal ta utgangspunkt i tilsyn. Dette er et vanskelig spørsmål, og vi er enda ikke «ferdig tenkt», 

Vi har, så langt, liten erfaring med tilsyn med algoritmer, men jeg vil nevne én konkret sak. Det er tvil om det i denne saken virkelig var snakk om en algoritme, men den er uansett veldig illustrerende. Saken gjaldt skoleelever som uten forklaring fikk betydelig lavere karakterer enn de forventet. Disse elevene har gått på IB-linjene som mange videregående skoler tilbyr. I år ble eksamen mange steder avlyst pga korona, og da måtte man bruke andre elementer enn karakter på eksamen for å fastsette endelig karakter. Årsaken til at karakterene har blitt satt ned, er at man har brukt historiske data om tidligere elever ved samme skole i karaktersettingen, i et forsøk på å kompensere for korona-avlyste eksamener. Og de historiske dataene handlet blant annet om hvordan elevene ved skolen normalt gjorde det. Til dette sa vi følgende:

«Elevene blir langt på vei satt i bås på bakgrunn av skolens historiske resultater, selv om alle elever er forskjellige. Samtidig kan karaktersettingen ha svært stor innvirkning på den enkeltes videre studier, karriere og liv. Dette er ikke rettferdig ovenfor elevene som har jobbet hardt og som nå ikke kommer inn på studiene de ønsket seg til.»

Når det gjaldt den mer konkrete juridiske begrunnelsen, var den at karakterer er personopplysninger, og etter personvernforordningen skal personopplysninger være korrekte og behandles på en åpen og rettferdig måte. Vi mente at IB-karakterene ikke er korrekte fordi de ikke avspeiler den enkeltes individuelle faglige nivå, noe som er formålet med karaktersetting. I stedet prøver karaktersettingen å forutse hvilke karakterer vedkommende hadde fått på eksamen hvis eksamen ikke var blitt avlyst, men dette er det ikke mulig å nøyaktig forutse.

Vi mente også at det er urettferdig å bygge karakterer på hvordan andre elever ved samme skole har prestert tidligere år. Dette kan føre til diskriminering fordi karaktermodellen behandler elever ved ulike skoler ulikt.

Vi har altså allerede et algoritmetilsyn i Norge, og det er Datatilsynet. Vi kan føre tilsyn med automatiserte beslutninger, der beslutning er tatt av en algoritme. Vi kan be om å få fremlagt, og vurdere, risikovurderingen, om utredning av personvernkonsekvenser er god nok, vi kan pålegge sletting og gi innsyn i data, for å nevne noen eksempler. Og vi kan, som i IB-saken, se på hvilke informasjonsfragmenter som inngår i beslutningen, og om de er urettferdige. Men å gå inn og kontrollere selve algoritmen, selve tallstrengen, er adskillig mer krevende.

For kun dager siden kom EU-parlamentet med en oppfordring til EU-kommisjonen om å lage et rammeverk for kunstig intelligens, robotteknologi og lignende teknologier. Jeg har ikke lest hele dokumentet som er på veldig mange sider, men det har en innretning som er interessant. Det peker bl.a. på de gode sidene ved kunstig intelligens, men også farene, som vi kjenner godt. En beslutning truffet ved hjelp av kunstig intelligens og algoritmer, kan være fordomsfull, rasistisk, kjønnsdiskriminerende og aldersdiskriminerende. For så vidt: Akkurat slik en avgjørelse truffet av et menneske kan være, uten å gå nærmere inn på det her. I rapporten understekes mye av det samme som i GDPR, viktigheten av risikovurderinger, sikkerhet, gjennomsiktighet og ansvarlighet. Fordommer, sosial ansvarlighet og likestilling mellom kjønnene diskuteres spesielt.

Og deler av rapporten har et positivt tilsnitt, det heter blant annet:

«kunstig intelligens, robotteknologi og relaterede teknologier kan bidrage til at mindske sociale uligheder og gør gældende, at den europæiske udviklingsmodel skal være baseret på borgernes tillid og større social samhørighed»

For dagens tema er det også interessant at det foreslås å utpeke tilsynsmyndigheter, i flertall, som skal føre tilsyn med disse reglene. Dette er veldig spennende. Vi må innse at dagens lovverk kanskje ikke alltid er tilpasset en algoritmifisert verden, og kanskje er det heller ikke mulig å regulere i en verden som beveger seg så fort som den gjør nå. Det er derfor svært viktig at etikken ligger som et skall rundt lovverket. Det er ikke slik at alt som ikke er ulovlig, er ok. Ta forsikring, for eksempel: Vi kan forutse mange sykdommer ved å kartlegge livsmønsteret til folk i detalj, og vi kan beregne en forsikringspremie som tilsvarer den individuelle risikoen for å bli syk. Det er nesten umulig å lovregulere dette. Og det etiske spørsmålet som oppstår her er selvsagt hvor langt vi skal gå i å individualisere forsikringspremien, før vi undergraver selve forsikringsproduktet, som jo er et kollektivt produkt? Det er et dypt etisk spørsmål om hvor langt vi som samfunn skal tillate at eldre, folk med medfødte sykdommer eller overvektige, skal diskrimineres.

Datatilsynet jobber for at regelverket skal etterleves. Vi kan føre tilsyn, behandle enkeltsaker og drive informasjonsarbeid om hvordan reglene er å forstå. Nå har vi etablert en helt ny arbeidsmetode, nemlig en regulatorisk sandkasse for kunstig intelligens. Dette er et testmiljø der virksomheter kan eksperimentere med nye tjenester og løsninger i et trygt miljø, og få rådgivning fra våre eksperter på juss og teknologi.

Den overordnede målsettingen er å stimulere til innovasjon av etisk og ansvarlig kunstig intelligens. Personvern og innovasjon blir av og til fremstilt gjensidig utelukkende. Dette er en misforståelse. Tvert imot så kan dårlig ivaretatt personvern i utviklingen av kunstig intelligens hemme graden av innovasjon.

Vi åpner for søknader for å bli tatt opp i sandkassen 1. desember. Jeg understreker at de som tas opp må bruke kunstig intelligens i løsningen sin. Men det vil selvsagt være en kvalitetsterskel for å komme inn i prosjektet. Det holder altså ikke å komme med en pakke Toro sauspulver og litt smør, kanskje heller ikke en simpel essens. Men hva om noen kommer opp med en idé om å lete rundt, ved hjelp av kunstig intelligens, på den store verdensveven, for å finne en ny ingrediens til bearnaisen?  Og kanskje finner de tomatpureen. Men dessverre, den sausen er allerede laget, og heter som sagt choron-saus. Det er dårlige greier, men i sandkassa skal det være lov å leke!

Dette er en utvidet og popularisert versjon av et foredrag jeg holdt på Likestillings- og diskrimineringsombudets årskonferanse 29. oktober 2020