get_queried_object(); $id = $cu->ID; ?>
Catharina Nes

Intellektuell gjeld – den skjulte kostnaden ved kunstig intelligens

Det er ikke bare den kunstige intelligensen som feiler som bør bekymre oss. Vi må også ha oppmerksomheten rettet mot den kunstige intelligensen som gir gode svar, men svar vi ikke kan forklare. (Artikkelen sto på trykk i Dagens Næringsliv den 10. januar 2020)

I 1897 ble Aspirin oppdaget og tatt i bruk til smertelindring. Først nesten 100 år senere, i 1995, fant forskere ut hvordan legemiddelet fungerer. Slik er det med mange av legemidlene vi bruker. Vi vet at de fungerer, men ikke hvorfor. Hvordan er det mulig at noe blir studert og forsket på så grundig, og at likevel ingen kan forklare hvorfor det virker?

Svaret på dette er at man innen legemiddelforskning i stor grad baserer seg på eksperimentering gjennom prøving og feiling som metode. Dette gjøres på testobjekter, ofte mus. Hvis musene responderer godt uten registrerte bieffekter, kan medikamentet testes ut på mennesker. Gjennom en lang testperiode kan medikamentet til slutt oppnå godkjenning. I noen tilfeller kan suksessen til en virkningsfull medisin inspirere forskere til å lete etter forklaringen på hvorfor den virker. Dette var tilfellet med Aspirin. Da forskere fant ut hvordan legemiddelet fungerte, førte det til utvikling av nye og bedre typer smertestillende medisin gjennom andre metoder enn prøving og feiling.

Denne formen for oppdagelser – svar først, forklaring senere – skaper hva Jonathan Zittrain, forfatter av flere innflytelsesrike bøker om internettøkonomien og Harvard-professor i internasjonal rett og informatikk, kaller intellektuell gjeld. Intellektuell gjeld oppstår når vi har innsikt i hva som virker uten å ha kunnskap om hvorfor det virker. Noen ganger tilbakebetales den intellektuelle gjelden raskt, og noen ganger, som med Aspirin, etter 100 år. Noen ganger blir den intellektuelle gjelden aldri tilbakebetalt.

Intellektuell gjeld er ikke nødvendigvis et problem. Er vi syke, vil vi ha en medisin som har virker. Hvorfor den virker er mindre viktig. Men å ta opp lån innebærer også en risiko. I artikkelen «Intellectual debt: with great power comes great ignorance» i The New Yorker, skriver Jonathan Zittrain om hvordan vi med bruk av kunstig intelligens risikerer å pådra oss en historisk intellektuell gjeldsbyrde.

Kunstig intelligens, særlig maskinlæring, er basert på prøving og feiling som metode, den samme metoden som benyttes innen legemiddelvitenskapen. Gjennom utbredelsen av kunstig intelligens bringes denne metoden, der svar kommer uten forklaring, til et utall nye samfunnsområder. Maskinlæring på sitt beste gir oss mer konsise og konsistente svar enn et menneske noen gang vil kunne gi. Men når vi aksepterer disse svarene uten å fastslå teoriene som ligger bak dem, pådrar vi oss intellektuell gjeld.

For å forklare utfordringene med intellektuell gjeld trekker Zittrain paralleller til et beslektet fenomen fra IT-verden, nemlig teknisk gjeld. Teknisk gjeld brukes som metafor om konsekvensene av dårlig system- og programvareutvikling. Teknisk gjeld oppstår når man lapper og fikser på et eksisterende system uten å ha et langsiktig perspektiv. Opptak av teknisk gjeld kan gi besparelser på kort sikt, men kan senere bli en direkte årsak til økte kostnader og hindre nødvendig innovasjon.

Akkurat som teknisk gjeld kan opptak av intellektuell gjeld gi god avkastning på kort sikt, men skape store utfordringer på lang sikt. Zittrain trekker frem tre grunner til at vi bør bekymre oss for den intellektuelle gjelden skapt av kunstig intelligens:

For det første, når vi ikke forstår hvordan noe virker, er det vanskelig å forutse hvordan det vil tilpasse seg uvante og uventede situasjoner. Selv velfungerende maskinlæringssystemer kan  manipuleres til å trekke gale konklusjoner ved å angripes med hva forskere kaller «fiendtlige input». Forskere ved det amerikanske universitetet MIT, klarte for eksempel å endre pixlene på et kattebilde uten at bildet ble synlig endret for det menneskelige øye. Mennesket så fortsatt bildet av den samme katten, mens Googles bildegjenkjenningsprogram var derimot 100 prosent overbevist om at det så på et bilde av guacamole. På samme måte kan selvkjørende biler manipuleres til å tro at de ser et forkjørsskilt i stedet for et vikepliktskilt. Intellektuell gjeld skaper altså risiko for alvorlige hendelser som det kan være vanskelig å forhindre. Hvis vi ikke forstår hvordan et system fungerer et det krevende å finne en metode for å beskytte det mot manipulering.

Den andre årsaken til at vi bør bekymre oss for den intellektuelle gjelden som hoper seg opp i systemer basert på kunstig intelligens, er at systemene ikke fungerer i isolasjon, men påvirker hverandre. Gale svar produsert av ett system samles inn og danner datagrunnlaget som andre maskinlæringssystem lærer av. På denne måten kan små feil i ett system spre seg og på sikt resultere i større og mer alvorlige feilslutninger i andre systemer. Etter hvert som flere og flere systemer vi ikke forstår blir gjensidig avhengige av hverandre, vil svarene de gir kunne bli mer uforutsigbare og vanskeligere for oss å kontrollere. Vi vil kunne havne i en situasjon der våre valg og handlinger bestemmes av systemer vi ikke kan etterprøve, men simpelthen bare må velge å stole på.   

Den siste, men mest dyptgripende bekymringen til Zittrain er knyttet til at myndigheter og selskaper har begynt å flytte forskningsmidler bort fra den tidkrevende og kostbare grunnforskningen som leter etter forklaringer, og over til den teknologidrevne og anvendte forskningen som leverer umiddelbare svar og resultater. Svar alene er imidlertid ikke alt som teller, poengterer Zittrain. Uten teoridrevet forskning vil vi kanskje ikke finne noen meningsfulle svar overhodet.

Mye av kritikken mot kunstig intelligens er rettet mot alle de ulike måtene den kan feile på. Den kan reprodusere fordommer, diskriminere og brukes til onde formål. Men vi må også ha oppmerksomheten rettet mot den kunstige intelligensen som ikke gjør feil. Den som takket være sin suksess tikker og går i bakgrunnen og tar beslutninger vi ikke forstår, men likevel har sluttet å stille spørsmålstegn ved.

Jørgen Skorstad

Gebyr så det svir til Google

Dette innlegget sto på trykk i Dagens Næringsliv 30. januar 2019:  Mandag 21. januar ble blåmandag for Google LLC, da det franske datatilsynet (CNIL) ga selskapet en bot på 50 millioner euro. Dette er det fjerde overtredelsesgebyret som er skrevet ut i Europa etter at...

les mer
Bjørn Erik Thon

Privatliv langs veien

Denne kronikken sto på trykk i Dagsavisen 8. januar 2019 Dagens system for veiprising er basert på at bilistene betaler når de passerer et av de mange passeringspunkt. I en digitalisert verden med mulighet for satellittposisjonering og GPS i enhver bil, vil veiprising...

les mer
Bjørn Erik Thon

Det nye personvernet

Denne kronikken sto på trykk i Dagens Næringsliv 29. desember 2018.  20. juli i år trådte de nye personvernreglene i kraft. Dette gir oss en helt ny måte å tenke personvern på. Grunnen er ganske enkelt at personvernverdenen ser annerledes ut nå enn for bare noen få år...

les mer
Catharina Nes

Vi trenger en global digital etikk

Artikkelen sto opprinnelig på trykk i Dagens Næringsliv 30.11.2018 Skal vi styre utviklingen av kunstig intelligens i riktig retning, trenger vi et felles etisk kompass. Bruken av kunstig intelligens er i startgropen, men påvirker allerede livet ditt. Automatiserte,...

les mer
Catharina Nes

«Alexa – hører du meg nå?»

Mange inviterer nå talestyrte assistenter fra verdens mektigste selskap inn i hjemmet. Men de smarte assistentene kommer også med en kostnad. (Artikkelen sto opprinnelig på trykk i Dagens Næringsliv 5. oktober 2018). Talestyrte assistenter er et av de raskest voksende...

les mer
Bjørn Erik Thon

Personvernåret 2018

Dette innlegget er basert på et foredrag jeg holdt på Norsk Informasjonssikkerhetsforum (ISF) høstkonferanse 29. august, og er derfor skrevet i lett muntlig stil. Jeg vil gå gjennom de viktigste personvernhenvendelsene det siste året, og hva vi kan lære av dem, og...

les mer
Catharina Nes

Snart kan sjefen «se» alt du gjør

Ny teknologi gjør det mulig å effektivisere arbeidsprosesser, men samtidig også å overvåke ansatte på nye og mer invaderende måter. (Artikkelen sto opprinnelig på trykk i Dagens Næringsliv 10. august 2018) For et par år siden gikk journalisten James Bloodworth...

les mer

Siste kommentarer

    Arkiv

    Følg oss:

    Ønsker du å motta e-post når nye innlegg postes på Personvernbloggen, kan du registrere din e-postadresse her.

    E-postadressen blir lagret på vår server og kun brukt til dette formålet. Om du velger å slutte å følge oss, vil e-postadressen bli slettet fra vår server. Du samtykker til denne bruken av din e-postadresse ved å registrere den her.