<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
  xmlns:content="http://purl.org/rss/1.0/modules/content/"
  xmlns:wfw="http://wellformedweb.org/CommentAPI/"
  xmlns:dc="http://purl.org/dc/elements/1.1/"
  xmlns:atom="http://www.w3.org/2005/Atom"
  xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
  xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
  >
<channel>
  <title>Personvernbloggenkunstig intelligens Archives - Personvernbloggen</title>
  <atom:link href="https://www.personvernbloggen.no/category/teknologi/kunstig-intelligens/feed/" rel="self" type="application/rss+xml" />
  <link>https://www.personvernbloggen.no/category/teknologi/kunstig-intelligens/</link>
  <description>Datatilsynets blogg om personvernspørsmål</description>
  <lastBuildDate>Wed, 28 Jan 2026 19:31:14 +0000</lastBuildDate>
  <language>nb-NO</language>
    <sy:updatePeriod>hourly</sy:updatePeriod>
    <sy:updateFrequency>1</sy:updateFrequency>
  <generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.personvernbloggen.no/wp-content/uploads/2018/03/cropped-DT-Favicon-32x32.jpg</url>
	<title>kunstig intelligens Archives - Personvernbloggen</title>
	<link>https://www.personvernbloggen.no/category/teknologi/kunstig-intelligens/</link>
	<width>32</width>
	<height>32</height>
</image> 
  <item>
    <title>Personvern er beredskap i en urolig verden</title>
    <link>https://www.personvernbloggen.no/2026/01/28/personvern-er-beredskap-i-en-urolig-verden/</link>
    <comments>https://www.personvernbloggen.no/2026/01/28/personvern-er-beredskap-i-en-urolig-verden/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2022/10/cropped-20220805_datatilsynet_line_coll_021-kvadr-200x200.jpg</avatar>
    <pubDate>Wed, 28 Jan 2026 19:23:38 +0000</pubDate>
    <dc:creator><![CDATA[Line Coll]]></dc:creator>
    		<category><![CDATA[Informasjonssikkerhet]]></category>
		<category><![CDATA[Internasjonalt]]></category>
		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[Personvernpolitikk]]></category>
		<category><![CDATA[Planer og strategier]]></category>
		<category><![CDATA[Teknologi]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=4108</guid>
    <description><![CDATA[Samfunnssikkerhet handler ikke lenger bare om soldater, forsyningslinjer og fysisk infrastruktur, men også om data, teknologi og kontroll over informasjon. I en verden preget uro, er personvern en viktig del av vår nasjonale beredskap.]]></description>
        <content:encoded><![CDATA[
<p><strong>Samfunnssikkerhet handler ikke lenger bare om soldater, forsyningslinjer og fysisk infrastruktur, men også om data, teknologi og kontroll over informasjon. I en verden preget uro, er personvern en viktig del av vår nasjonale beredskap.</strong></p>



<p><em>Dette innlegget er skrevet av Line Coll, direktør i Datatilsynet, og Kari Laumann, seksjonssjef for utredning, analyse og politikk i Datatilsynet. <a href="https://www.altinget.no/digital/artikkel/personvern-er-beredskap-i-en-urolig-verden" target="_blank" rel="noreferrer noopener">Innlegget ble først publisert i Altinget 28.01.2026.</a></em></p>



<p>Her hjemme har vi akkurat sparket i gang 2026, som av myndighetene er utpekt som Totalforsvarsåret. På bortebane ser vi at gamle allianser knaker og at den gamle regelbaserte verdensordenen utfordres. Teknologi har blitt et sentralt maktmiddel i geopolitikk, og personvern spiller en stadig viktigere rolle i sikkerhetspolitikken.</p>



<h2 class="wp-block-heading">Tekoligarker og avhengighet</h2>



<p>Store deler av Norges digitale infrastruktur er levert av en håndfull amerikanske selskaper. Disse selskapene er ikke bare teknologileverandører, men også globale maktaktører, og leverer alt fra fiber, datasentre, skytjenester og operativsystemer, både i privat og offentlig sektor i Norge.</p>



<p><em>Tekoligark</em> var årets nyord i 2025. Begrepet viser til en ny maktkonsentrasjon der økonomisk, teknologisk og politisk innflytelse smelter sammen. Mange av teknologiselskapene har tette bånd til Trump-administrasjonen og liker ikke reguleringer som står i veien for kommersiell handlefrihet.</p>



<p>Det kommer stadig nye eksempler på hvilke konsekvenser dette har i praksis. Da Microsoft stengte e-postkontoen til sjefsanklageren i Den internasjonale straffedomstolen (ICC), ble mange europeiske land minnet om hvor sårbare vi er. Utestengelsen skjedde etter amerikanske sanksjoner mot domstolen, som følge av arrestordre mot statsminister Netanyahu og andre israelske tjenestemenn for påståtte krigsforbrytelser i Gaza.</p>



<p>I Kina, den andre teknologiske stormakten i verden, kan myndighetene pålegge kinesiske selskaper å dele personopplysninger med dem. Diskusjonen om de hundrevis av kinesiskproduserte bussene som kjører rundt i Norge er også illustrerende. Busser utgjør kritisk infrastruktur i for eksempel evakueringssituasjon – og spørsmålet som er reist er om disse kan fjernstyres eller settes ut av drift av produsenten.</p>



<h2 class="wp-block-heading">Europeiske verdier under press</h2>



<p>Personopplysningene våre befinner seg midt oppi det hele. De er tett vevd inn i tjenestene og den digitale infrastrukturen som kan utnyttes, enten til angrep, overvåking, påvirkning eller manipulering av informasjon.</p>



<p>Som et lite og sårbart land har Norge en lang tradisjon for å støtte opp under en regelbasert verdensorden. For å møte en fremtid som utfordrer denne tradisjonen ser vi et tydelig behov for å vurdere graden av kontroll vi har over teknologisk infrastruktur og dataene som flyter i den.</p>



<p>Personvernregelverket i Europa er ikke bare er et vern for den enkelte, men også et uttrykk for europeiske verdier og strategiske interesser. Kravene til dataminimering, rutiner og informasjonssikkerhet styrker den digitale beredskapen i norske virksomheter så vel som samfunnet som helhet. Godt personvern i norske virksomheter styrker samfunnets evne til å stå imot press, påvirkning og digitale angrep.</p>



<h2 class="wp-block-heading">Personvern som kollektivt vern</h2>



<p>I dagens sikkerhetspolitiske situasjon må personvern forstås som en integrert del av Norges totalberedskap. Skal Norge lykkes i Totalforsvarsåret 2026, må personvern, regulering og digital infrastruktur ses i sammenheng – som en del av vårt kollektive vern.  Vi mener det er på tide å få på plass en helhetlig nasjonal plan for digital suverenitet som forener og balanserer innovasjon, sikkerhet og personvern.</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2026/01/28/personvern-er-beredskap-i-en-urolig-verden/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Chatbot på rømmen</title>
    <link>https://www.personvernbloggen.no/2025/05/30/chatbot-pa-rommen/</link>
    <comments>https://www.personvernbloggen.no/2025/05/30/chatbot-pa-rommen/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2022/10/cropped-datatilsynet_jan_henrik_181122134718-kvadr-200x200.jpg</avatar>
    <pubDate>Fri, 30 May 2025 12:34:28 +0000</pubDate>
    <dc:creator><![CDATA[Jan Henrik Mjønes Nielsen]]></dc:creator>
    		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[Lovgivning]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=4070</guid>
    <description><![CDATA[VG har lansert chatboten heiVG og det har allerede blitt oppdaget at den gir uriktige opplysninger om levende personer. Hvem har ansvaret når chatboten gjør feil?]]></description>
        <content:encoded><![CDATA[
<p><em><a href="https://www.m24.no/datatilsynet-debatt-heivg/chatbot-pa-rommen/826428">Dette innlegget stod først «på trykk» i Medier24 30. mai 2025.</a></em></p>



<p><a href="https://www.m24.no/chatbot-heivg-kunstig-intelligens/vg-lanserer-ny-chatbot/818544" target="_blank" rel="noreferrer noopener">VG har lansert chatboten heiVG</a> og det har allerede blitt oppdaget at <a href="https://www.kode24.no/artikkel/vgs-nye-chatbot-gir-feil-informasjon-far-kritikk/83045445" target="_blank" rel="noreferrer noopener">den gir uriktige opplysninger om levende personer</a>. Hvem har ansvaret når chatboten gjør feil?</p>



<p>Feilinformasjon er utvilsomt et samfunnsproblem. Ikke bare gir det folk feil fakta, men det kan også bidra til å svekke tilliten til redaktørstyrte medier hvis de formidler den type informasjon.</p>



<p>Redaktørstyrte medier er én av vår siste, og kanskje viktigste, skanser mot flommen av oppspinn. Hvordan blir det da når VG lanserer en upålitelig chatbot?</p>



<p>Under lanseringen uttalte VG at «Når vi ser tilbake på denne lanseringen om ett eller to år, tror jeg vi potensielt kan omtale den som startskuddet på noe helt nytt for måten journalistikk konsumeres og formidles på.»</p>



<p>En ny måte journalistikk konsumeres og formidles på? Da må det vel være underlagt redaktøransvaret og medieansvarsloven?</p>



<p>Ikke ifølge VG. På nettsiden opplyser de at «heiVG er en ikke-redaksjonell tjeneste og feil kan forekomme.»</p>



<p>Feil kan forekomme? Eksempelet som kom frem i media var uriktig omtale av om en person som hadde begått et lovbrudd. <a href="https://www.nrk.no/norge/nordmann-klager-chatgpt-til-datatilsynet-1.17348958" target="_blank" rel="noreferrer noopener">Datatilsynet behandler allerede i dag en klagesak på en annen tjeneste</a>, der en person feilaktig ble beskyldt for å ha drept sine egne barn.</p>



<p>Har det noe å si? Ja. For hvis tjenesten er ikke-redaksjonell så er den underlagt personvernlovgivning hvor et av hovedprinsippene er at personopplysninger skal være korrekte. For selv uriktig informasjon om en person kan være personopplysninger.</p>



<p>En setning på nettsiden om at feil kan forekomme kan ikke unnta en hel tjeneste fra et lovverk som skal sikre den enkeltes beskyttelse. Faren er at vi slutter å bry oss om sannheten hvis vi stadig utsettes for løgn.</p>



<p>Så VG, hva blir det til? Redaktøransvar eller underlagt et regelverk som skal sikre korrekt informasjon?</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2025/05/30/chatbot-pa-rommen/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Digitaliseringsparadokset</title>
    <link>https://www.personvernbloggen.no/2025/05/21/digitaliseringsparadokset/</link>
    <comments>https://www.personvernbloggen.no/2025/05/21/digitaliseringsparadokset/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2022/10/cropped-20220805_datatilsynet_line_coll_021-kvadr-200x200.jpg</avatar>
    <pubDate>Wed, 21 May 2025 09:13:32 +0000</pubDate>
    <dc:creator><![CDATA[Line Coll]]></dc:creator>
    		<category><![CDATA[Digital masseovervåking]]></category>
		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[Digitalt grenseforsvar]]></category>
		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[Politi og justis]]></category>
		<category><![CDATA[Sosiale medier]]></category>
		<category><![CDATA[Teknologi]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=4062</guid>
    <description><![CDATA[I prosessen med å bli verdens mest digitaliserte land risikerer vi å få verdens mest overvåkede innbyggere. Innlegget er skrevet av direktør Line Coll og juridisk spesialrådgiver Jan Henrik Nielsen. ]]></description>
        <content:encoded><![CDATA[
<p><em>Innlegget er skrevet av Datatilsynets direktør Line Coll og juridisk spesialrådgiver Jan Henrik Mjønes Nielsen. Det sto først «på trykk» på <a href="https://www.altinget.no/artikkel/digitalisering-truer-personvernet" target="_blank" rel="noreferrer noopener">altinget.no 14. mai 2025.</a></em></p>



<p><strong>I prosessen med å bli verdens mest digitaliserte land risikerer vi å få verdens mest overvåkede innbyggere.</strong></p>



<p>I den norske debatten om personvern vises det gjerne til USA eller Kina når det er behov for eksempler på ukontrollert og inngripende overvåking. Nå holder det å se til våre naboland &nbsp;for å finne disse eksemplene.</p>



<p>Hva skjer når du digitaliserer en velferdsstat og åpner døren på gløtt for de statlige etterretningstjenestene?</p>



<h2 class="wp-block-heading">Svensken og dansken</h2>



<p>Mye av grunnen til at velferdsstater som Norge, Sverige og Danmark fungerer godt, er at de har tilgang til store mengder digitaliserte data. Norge har mange statlige registre blant annet knyttet til helse, utdanning, arbeid, inntekt, velferdsytelser, straff, skatt og eiendom. Dette gjør det lettere å levere gode tjenester til innbyggerne. Men det har også en risiko. I en gjennomdigitalisert stat ligger potensialet for masseovervåking.</p>



<p>I Danmark pågår det nå en <a href="https://politiken.dk/danmark/art10349346/PET-skal-have-lov-til-at-masseoverv%C3%A5ge-danskere-uden-mistanke">omfattende diskusjon om et nytt lovforslag.</a> Forslaget gir etterretningstjenesten PET lov til å lage en analyseplattform der de kan samle data fra offentlige registre. Det kan for eksempel være informasjon om sykehusbesøk, kontakt med psykiatrien og sosialtjenester. De skal også kunne hente inn data fra sosiale medier – som hva folk skriver, liker og deler – og følge med på hvordan folk beveger seg på internett og i virkeligheten.</p>



<p>Ved hjelp av kunstig intelligens skal PET finne mønstre og peke på mistenkelig atferd. Mange er bekymret for at dette gjør at alle blir behandlet som potensielle mistenkte. Det kan føre til frykt for å ytre seg, og påvirke folks forhold og tilgang til velferdstjenester. Koplingen mellom registre, kunstig intelligens og overvåking er noe Danmark også tidligere har blitt kritisert for, blant annet i en <a href="https://www.amnesty.org/en/latest/news/2024/11/denmark-ai-powered-welfare-system-fuels-mass-surveillance-and-risks-discriminating-against-marginalized-groups-report/">rapport fra Amnesty</a>.</p>



<p>I Sverige er det også snakk om mer overvåkning. Der ønsker myndighetene å gi sikkerhetstjenestene <a href="https://www.svt.se/nyheter/inrikes/it-experten-man-vill-komma-at-kriminella-men-laglydiga-straffas" target="_blank" rel="noreferrer noopener">økt mulighet til å overvåke internettrafikk</a> og pålegge meldingsapper å opprette en bakdør for å oppheve kryptering. &laquo;Nasjonal sikkerhetslagring&raquo; innebærer omfattende innsamling av borgernes datatrafikk ved behov. Målet er å bekjempe digital kriminalitet, men innsamlingen vil omfatte vanlige, lovlydige borgere.</p>



<p>Det er fristende å bruke informasjon som allerede er samlet inn til nye formål. Vi ser denne tendensen også i Norge.</p>



<h2 class="wp-block-heading">Nye holdninger til bruk og deling av data setter personvernet under press i Norge</h2>



<p>Fra fødsels- til dødsmelding, registreres norske borgere i utallige registre og vårt livsløp dokumenteres fra fosterstadiet på helsestasjonen, videre i barnehagen, skolen, helsetjenesten, arbeidslivet og NAV. Vi gir fra oss informasjon til staten som nødvendig ledd i å motta diverse tjenester og velferdsgoder. Opprinnelig har informasjonen vært organisert som små «øyer» i offentlig sektor, og kun vært brukt til det formålet som den ble samlet inn for. Men endringer har skjedd. I vår digitaliseringsiver har vi tilpasset oss en ny måte å forholde oss til data på: den har ofte stor verdi utenfor det opprinnelige formålet. Alle offentlige data anses mer og mer som et statlig felleseie.</p>



<p>Lisa Reutter, som er ekspert på datadrevet offentlig sektor, satte ord på det optimistiske forholdet vårt til offentlige data <a href="https://www.datatilsynet.no/regelverk-og-verktoy/personvernpodden/ingenting-a-skjule/3-ingenting-a-skjule-registerovervaking/" target="_blank" rel="noreferrer noopener">i en episode av Datatilsynets podkast</a>: «Vi holder data atskilt slik at opplysninger samlet inn i én kontekst ikke skal ha noe å si i en annen. Men ideen om data som en muliggjørende teknologi, bidrar til å flytte grensene for hva vi aksepterer og synes er greit».</p>



<h2 class="wp-block-heading">Sammenstilling av data skaper uklarheter</h2>



<p><a href="https://www.altinget.no/emne/1297">På Altinget har det i den siste tiden pågått en debatt om de såkalte individdataregistrene</a>. De forslåtte registrene skal samle mye informasjon om barn i skole og barnehage – som fravær, prøveresultater, spesialundervisning, språkopplæring, foreldrenes bakgrunn og økonomisk situasjon. Disse opplysningene skal igjen kobles med data om foreldre og barnets videre liv, som utdanning, jobb, inntekt og helse, samt foreldrenes livsløp. Forskningen på registrene skal benyttes som kunnskapsgrunnlag for å skape en bedre skole. Datatilsynet har advart mot at store og sammenkoblede registre innebærer en endret maktbalanse mellom myndighetene og enkeltindividet, noe som kan påvirke tilliten til statlige myndigheter negativt.</p>



<p><a href="https://www.datatilsynet.no/regelverk-og-verktoy/lover-og-regler/avgjorelser-fra-datatilsynet/2023/forbud-mot-behandling-av-personopplysninger-for-ssb/" target="_blank" rel="noreferrer noopener">Forbudet vårt mot Statistisk sentralbyrå (SSB)</a> sin planlagte innsamling av data fra den norske befolkningens dagligvarekjøp i 2023 var et eksempel på det samme. Ideen om å koble bongdata opp mot sosioøkonomiske data slik som husholdningstype, inntekt og utdanningsnivå, var noe vi mente var et uforholdsmessig inngrep i norske borgeres privatliv.</p>



<p>Dette kommer i tillegg til utvidelsene av justismyndighetenes overvåking av borgerne de siste årene, med blant annet lagring av IP-adresser, passasjeropplysninger, Etterretningstjenestens overvåking av internettrafikk og senest PSTs hjemler til å overvåke åpne kilder. Når store deler av kommunikasjonen og kunnskapsinnhentingen vår skjer på digitale plattformer, vil summen av data som samles inn av offentlige og private aktører medføre et stort overvåkingspotensial. Ekstra bekymringsfullt er det når <a href="https://eos-utvalget.no/wp-content/uploads/2023/06/EOS-utvalgets-arsmelding-for-2022.pdf">etterretningstjenester kjøper metadata</a> fra apper på det uregulerte markedet, og når Kripos <a href="https://juristen.no/nyheter/2023/02/arkivverket-hjelper-politiet-med-slektsgransking">vil bruke private slektsdatabaser</a> i etterforskning.</p>



<p>Alt dette bidrar til å skape uklarhet som forsterker de negative effektene av overvåking og kan svekke personvernet ved at legges press på å utforme tjenester med svakere beskyttelse. Alt dette ble på dramatisk vis satt på spissen i debatten og snuoperasjonen knyttet til sivilbeskyttelsesloven. En situasjon hvor personvernlovgivningen settes til side kan få alvorlige konsekvenser for samfunnet. Det å innføre økte kontrolltiltak på for eksempel internett eller ansiktsgjenkjenning i det offentlige rom vil innebære en svekkelse av sivilsamfunnet. Kontrollmekanismer blir også satt under press i krisesituasjoner. Det er ingen tvil om at Datatilsynet opplevde det svært krevende å si nei til Smittestopp-appen under Covid.</p>



<h2 class="wp-block-heading">Overvåkingspotensialet i en gjennomdigitalisert stat</h2>



<p>At hvert enkelt tiltak kan aksepteres som et nødvendig inngrep i personvernet, kan isolert sett fremstå tilforlatelig. Advokatforeningen har <a href="https://www.dagbladet.no/meninger/jeg-vil-svekke-rettsstaten-gi-meg-en-hjemmel/82674856" target="_blank" rel="noreferrer noopener">i en kronikk</a> påpekt dilemmaet under overskriften «Jeg vil svekke rettsstaten &#8211; gi meg en hjemmel!». Det at nye tiltak hjemles, begrenser ikke nødvendigvis skadevirkningene av selve inngrepet. Mulighetene og hjemlene for sammenkobling av ulike offentlige registre eller private datasett gjør uforutsigbarheten for den enkelte desto større.</p>



<p>Det er godt dokumentert at økt overvåkingstrykk påvirker vår ytre frihet, hvordan vi lever, kommuniserer og bruker tjenester. Enda mer bekymringsfullt er at den også truer vår indre frihet – mange begynner å føle seg overvåket hele tiden. Det er ikke uten grunn at den nye KI-forordningen forbyr bruk av kunstig intelligens som manipulerer folk til å gjøre ting de ellers ikke ville gjort.</p>



<p>Datatilsynet vil advare mot et samfunn hvor all offentlig informasjon og private data samles og gjøres tilgjengelig for nye formål og bruksområder. Et demokrati kjennetegnes ved at det er borgerne som kontrollerer staten, ikke motsatt. Norge, Sverige og Danmark ligger fortsatt <a href="https://www.eiu.com/n/democracy-index-2024/" target="_blank" rel="noreferrer noopener">på topp på internasjonale demokratiindekser</a>, men vi kan ikke ta slike målinger for gitt. Det fremstår som et paradoks at suksessen til de skandinaviske velferdsstatene – å bruke store mengder data til å levere gode velferdstjenester – kan gjøre oss ekstra sårbare.</p>



<p>Det kan være fristende å se til våre naboland når vi utformer politikk som skal løse fremtidens utfordringer. Men uansett om målet er velferd, forskning eller sikkerhet, er det viktig at politikerne er bevisst det enorme overvåkingspotensialet som ligger i en heldigital og gjennomregistrert stat.</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2025/05/21/digitaliseringsparadokset/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Seks sentrale spørsmål om kunstig intelligens (Og svarene fra sandkassen)</title>
    <link>https://www.personvernbloggen.no/2025/04/01/seks-sentrale-sporsmal-om-kunstig-intelligens-og-svarene-fra-sandkassen/</link>
    <comments>https://www.personvernbloggen.no/2025/04/01/seks-sentrale-sporsmal-om-kunstig-intelligens-og-svarene-fra-sandkassen/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2020/08/Profilbilde_Magnus-scaled-e1597911334538-200x200.jpg</avatar>
    <pubDate>Tue, 01 Apr 2025 07:08:40 +0000</pubDate>
    <dc:creator><![CDATA[Magnus Mühlbradt]]></dc:creator>
    		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[Ikke kategorisert]]></category>
		<category><![CDATA[Innebygd personvern]]></category>
		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[Teknologi]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[digitalisering]]></category>
		<category><![CDATA[innovasjon]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[personvern]]></category>
		<category><![CDATA[regulatorisk sandkasse]]></category>
		<category><![CDATA[sandkasse]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=4020</guid>
    <description><![CDATA[Siden oppstarten i 2021 har Datatilsynets regulatoriske sandkasse hjulpet enkeltaktører med å følge regelverket og utvikle KI-løsninger med godt personvern. Fremover vil vi ha et bredere fokus på innovasjon og digitalisering – både med og uten kunstig intelligens. Men la oss først se nærmere på seks KI-relaterte spørsmål vi ofte har møtt fra søkere og [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p>Siden oppstarten i 2021 har Datatilsynets regulatoriske sandkasse hjulpet enkeltaktører med å følge regelverket og utvikle KI-løsninger med godt personvern. Fremover vil vi ha et bredere fokus på innovasjon og digitalisering – både med og uten kunstig intelligens. Men la oss først se nærmere på seks KI-relaterte spørsmål vi ofte har møtt fra søkere og deltakere i sandkassen.</p>



<h2 class="wp-block-heading">1. <strong>Kan vi bruke personopplysninger i KI-løsningen?</strong></h2>



<p>Et spørsmål som går igjen i Datatilsynets sandkasse er: Har vi lov til å bruke personopplysninger i løsningen vår? </p>



<p>Svaret er som regel: Det kommer an på.</p>



<p>For at behandlingen av personopplysninger skal være lovlig, må virksomheten ha et rettslig grunnlag, også ved utvikling av kunstig intelligens. Dette er i tråd med <a href="https://lovdata.no/dokument/NL/lov/2018-06-15-38/KAPITTEL_gdpr-2#gdpr/a6">personvernforordningen artikkel seks</a>.</p>



<p>Kunstig intelligens omfatter ofte flere faser: utvikling, anvendelse (bruken av selve løsningen) og etterlæring. Disse fasene kan overlappe, noe som gjør det krevende å avgjøre når én fase slutter og en annen begynner. Og selv om virksomheten har rettslig grunnlag for én fase, betyr det ikke nødvendigvis at dette grunnlaget dekker andre faser.</p>



<p>Vi møtte på denne problemstillingen sammen med NAV – i et av de første sandkasseprosjektene våre. Her kom vi frem til, at NAV hadde hjemmel i folketrygdloven til å behandle brukernes opplysninger for å yte tjenester. Loven er derimot ikke tydelig  på om de kan bruke historiske data om sykemeldinger <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/nav-sluttrapport/rettslig-grunnlag/">til trening av algoritmene</a>.</p>



<p>En annen viktig læring, er at det er viktig å identifisere hvilke data som faktisk inneholder personopplysninger. I sandkasseprosjektet med Juridisk ABC kom vi frem til at de kunne nytte lovtekster, forskrifter, forarbeider og lignende juridiske kilder i <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/juridisk-abc-sluttrapport-jussboten-lawai/">den generative KI-løsningen for arbeidsrett</a>. Det var ikke krav om rettslig grunnlag ganske enkelt fordi kildene ikke inneholdt personopplysninger. Derimot inneholdt dommer og kjennelser ofte omfattende mengder personopplysninger – som kan være svært sensitive for de som er involvert. Derfor måtte Juridisk ABC ha et rettslig grunnlag for å inkludere disse i KI-løsningen.</p>



<h2 class="wp-block-heading">2. <strong>Er anonymisering løsningen?</strong></h2>



<p>Flere av virksomhetene i sandkassen har ønsket å anonymisere personopplysninger. Anonymiserte data er jo ikke omfattet av personvernregelverket, så det <em>kan</em> forenkle mye. Men – det har i praksis vist seg krevende å få til faktisk anonymisering.</p>



<p>Til tross for betydelige fremskritt innen anonymiseringsteknologi, som skal hindre identifisering av enkeltpersoner i datasett, har det parallelt vært en utvikling av analyseteknologi som øker risikoen for re-identifisering. Mer offentliggjøring av offentlige data har også gjort det mulig å sammenstille flere datapunkter fra ulike kilder, hvilket øker utfordringen.</p>



<p>I sandkassen har vi sett flere eksempler på bruk av ny teknologi for å redusere risikoen for re-identifisering. Finansvirksomheten <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/finterai-sluttrapport/">Finterai ville bruke føderert læring</a> for å kunne dele innsikt fra transaksjonshistorikk mellom banker – uten å eksponere opplysninger som kunne knyttes til enkeltpersoner.</p>



<p>Teknologiselskapet <a href="https://www.datatilsynet.no/en/regulations-and-tools/sandbox-for-artificial-intelligence/reports/salt-mobai-et-al.-exit-report-securing-digital-identities/">Mobai hadde en lignende tilnærming</a>, men benyttet homomorfisk kryptering for å gjøre re-identifisering vanskeligere. Ved hjelp av denne teknologien kunne aktører analysere krypterte personopplysninger uten at de måtte dekrypteres. Dette skjer ved at de bevarer de egenskapene ved personopplysningene som de ønsker å bruke, og fjerner resten. </p>



<p><a href="https://www.datatilsynet.no/personvern-pa-ulike-omrader/internett-og-apper/personvernfremmende-teknologi/">Personvernfremmende teknologier</a>, som føderert læring og homomorfisk kryptering, markerer viktige skritt i riktig retning for å få til godt personvern i praksis. De bidrar ikke bare til å redusere risikoen for re-identifisering av personer som er i et KI-datasett. De gir også virksomheter bedre muligheter til å balansere innovasjon med personvern og informasjonssikkerhet.</p>



<h2 class="wp-block-heading">3. <strong>Kan kunstig intelligens bidra til dataminimering?</strong></h2>



<p>Prinsippet om dataminimering kan ved første øyekast virke som en motpol til kunstig intelligens. Kunstig intelligens trenger store mengder personopplysninger for å lære. Prinsippet om dataminimering slår fast at du skal samle inn minst mulig personopplysninger – kun det som er nødvendig for å oppnå formålet.</p>



<p>I flere sandkasseprosjekter har vi utforsket dette tilsynelatende dilemmaet. For eksempel har vi i sammen med <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/doorkeeper-sluttrapport-intelligent-kameraovervaking-med-personvern-i-fokus/">sikkerhetsselskapet Doorkeeper</a> sett på hvordan KI-baserte overvåkingskameraer kan minimere innsamlingen av personopplysninger. Blant annet kan de sladde mennesker i videostrømmen eller aktivere løpende opptak kun når en spesifikk hendelse utløser det. Vi har også diskutert situasjoner man <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/finterai-sluttrapport/dataminimering/">ikke vet hvilke opplysninger som er nødvendige før de har analysert data over tid.</a> Er det brudd på dataminimeringsprinsippet, om det i ettertid viser seg at personopplysninger har blitt behandlet uten å være relevante? Vi har utforsket problemstillingen i sandkassen, men som i mange andre tilfeller vil svaret avhenge av den konkrete konteksten.</p>



<h2 class="wp-block-heading">4. <strong>Hvordan skaper algoritmer urettferdighet?</strong></h2>



<p>Helsesektoren har vært godt representert i sandkassen, blant annet gjennom prosjekter med <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/helse-bergen-sluttrapport-kunstig-intelligens-i-oppfolging-av-sarbare-pasienter/hvordan-sikre-at-algoritmen-gir-et-rettferdig-resultat/">Helse Bergen</a> og <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/ahus-sluttrapport-ekg-ai/tiltak-som-kan-redusere-algoritmeskjevhet/">Ahus</a>. Disse har fokusert på KI-løsninger som skulle forutsi hjertesvikt og peke ut pasienter med fare for rask reinnleggelse på sykehus.</p>



<p>Kunstig intelligens i helsesektoren reiser viktige spørsmål om algoritmeskjevheter, som kan føre til at pasientene blir diskriminert. I begge prosjektene var KI-verktøyene ment som beslutningsstøtte og ikke for å gjennomføre automatiserte avgjørelser uten menneskelig innblanding. Likevel, det er en utbredt forståelse for at kunstig intelligens kan videreføre og forsterke eksisterende diskriminering i samfunnet. I tilfeller hvor algoritmene kommer til feil vurdering av folks helse, kan dette ha alvorlige konsekvenser.</p>



<p>I Ahus-prosjektet så de at dårlig datakvalitet og feil i datagrunnlaget potensielt kunne resultere i uriktige og diskriminerende resultater. Og de så på forskjellige metoder for å avverge dette.</p>



<p>For virksomheter som vil avverge algoritmeskapt diskriminering, har Likestillings- og diskrimineringsombudet <a href="https://ldo.no/aktuelt/innebygd-diskrimineringsvern/">en nyttig veileder om innebygd diskrimineringsvern</a>. Den er rettet mot de som er ansvarlige for utvikling, anskaffelse og bruk av ML-systemer, og skal gjøre dem kjent med diskrimineringsregelverket, slik at de kan forebygge ved å vurdere diskrimineringsrisikoen teknologien medfører.</p>



<h2 class="wp-block-heading">5. <strong>Hvem har ansvaret: utvikler eller kunde?</strong></h2>



<p>I flere sandkasseprosjekter har vi diskutert ansvarsforhold knyttet til behandlingen av personopplysninger i KI-løsninger: Hvem er behandlingsansvarlig? Hvem er databehandler? Og bør utviklere ta et større ansvar for å hjelpe virksomheter med å etterleve personvernregelverket?</p>



<p>En leverandør har ikke nødvendigvis et direkte ansvar for at kjøperne av produktet følger personvernregelverket, når løsningen blir brukt til å samle inn og behandle personopplysninger. Likevel bør de levere løsninger som legger til rette for at kunden, som ofte er å regne som behandlingsansvarlig, kan overholde regelverket i praksis.</p>



<p>I noen tilfeller kan det også være hensiktsmessig at utviklere eller leverandører tar på seg mer ansvar, for å sikre viktige personvernhensyn. Dette kan for eksempel være knyttet til tilgangskontroll eller informasjonssikkerhet.</p>



<p>Et eksempel på at utvikleren tar mer ansvar for å forbedre personvernet, ser vi i <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/secure-practice---sluttrapport/">prosjektet med Secure Practice</a>. Denne teknologivirksomheten hadde som mål å gi persontilpasset opplæring i cybersikkerhet. Sikkerhetsopplæringen var ment for ansatte i virksomheter, som ville kjøpe tjenesten fra Secure Practice. I tillegg ville ledelsen i disse virksomhetene få statistikk over ansattes kunnskaps- og interessenivå innenfor informasjonssikkerhet. For å kunne levere tjenesten uten at informasjon om ansatte kan misbrukes av ledelsen, drøftet deltakerne i prosjektet at det kunne være nødvendig å holde tilbake personopplysninger fra kunden. For at dette skulle være mulig, vurderte de en løsning med felles behandlingsansvar. Secure Practice og kunden vil da i fellesskap fastsette formålene og midlene for behandlingen av arbeidstakers personopplysninger.</p>



<p>Dette viser hvor viktig det er å avklare og plassere ansvarsforhold for å utvikle løsninger med godt personvern. Klare ansvarsforhold bidrar ikke bare til bedre etterlevelse av regelverket. Det kan også bidra til økt tillit mellom leverandører og kunder.</p>



<h2 class="wp-block-heading">6. <strong>Hvorfor maser vi så fælt om at personvernet må tidlig på plass?</strong></h2>



<p>Har du hørt om innebygd personvern? Det er et prinsipp i personvernregelverket om at tekniske systemer og løsninger blir utviklet slik at personvernet blir ivaretatt. Poenget er å sikre at personvernet i systemet er gjennomtenkt, heller enn å forsøksvis bli klattet på til slutt. I den nye digitaliseringsstrategien slår regjeringen fast at alle relevante IT-løsninger i offentlig sektor skal ha innebygd personvern. Men hva betyr det i praksis?</p>



<p>Mange av virksomhetene har kommet til sandkassen med KI-prosjekter i konseptfasen. Erfaringen fra disse prosjektene er at tidlige veivalg har stor betydning for hvor lett eller vanskelig det blir å etterleve kravene i personvernregelverket.&nbsp;</p>



<p>Flere eksempler fra sandkassen illustrer dette, spesielt når det gjelder lagring av personopplysninger for KI-formål. For eksempel kan lagring av store mengder personopplysninger sentralt på en felles server, gjøre dataene sårbare og øke angrepsflatene. Da må strenge organisatoriske og tekniske tiltak til for å sikre opplysningene, ettersom lagringen innebærer en større risiko for de registrerte. På en annen side kan desentralisert lagring – for eksempel ved kantprosessering (edge computing) – i visse tilfeller redusere personvernrisikoen. Det forenkler virksomhetens arbeid med informasjonssikkerhet.</p>



<p>Ett eksempel på desentralisert lagring er <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/doorkeeper-sluttrapport-intelligent-kameraovervaking-med-personvern-i-fokus/">Doorkeepers løsning</a>, der videostrømmen fra et overvåkingskamera ble sladdet direkte i kamerahuset før opptakene ble sendt videre til et brukergrensnitt. Et annet eksempel var <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/ruter-sluttrapport-i-rute-med-kunstig-intelligens/hvilket-ansvar-har-ruter-ved-lokal-lagring-i-forberedelsesfasen/">et prosjekt med Ruter</a>, som ønsket lokal lagring på brukernes egne mobiltelefoner i forberedelsesfasen til å utvikle KI. </p>



<p>Hvor data skal lagres, er neppe det første du tenker på etter å ha fått en ide om en genial ide. Å tenke på det tidlig nok kan riktignok spare deg for mye frustrasjon, og brukerne for risiko. </p>



<p>Dette er særlig relevant for virksomheter med begrensede ressurser – å utvikle løsninger som fra starten ikke krever omfattende tiltak for å oppfylle personvernregelverket. Å tilpasse ferdigutviklede løsninger i etterkant kan være både tidkrevende og kostbart.</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2025/04/01/seks-sentrale-sporsmal-om-kunstig-intelligens-og-svarene-fra-sandkassen/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Hva mener folk om kunstig intelligens og personvern?</title>
    <link>https://www.personvernbloggen.no/2025/02/03/hva-mener-folk-om-kunstig-intelligens-og-personvern/</link>
    <comments>https://www.personvernbloggen.no/2025/02/03/hva-mener-folk-om-kunstig-intelligens-og-personvern/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2020/08/Profilbilde_Magnus-scaled-e1597911334538-200x200.jpg</avatar>
    <pubDate>Mon, 03 Feb 2025 09:32:03 +0000</pubDate>
    <dc:creator><![CDATA[Magnus Mühlbradt]]></dc:creator>
    		<category><![CDATA[Arbeidsliv]]></category>
		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[Personvernpolitikk]]></category>
		<category><![CDATA[Teknologi]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3979</guid>
    <description><![CDATA[Personvernundersøkelsen 2024 viser at folk er delt i synet på om kunstig intelligens i det store og hele vil være et gode for samfunnet. Men de er enige i én ting: kunstig intelligens utfordrer personvernet. I undersøkelsen presenterer vi funnene fra en befolkningsundersøkelse som ble utført av analyseselskapet Opinion på vegne av Datatilsynet. Vi spurte [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p><strong>Personvernundersøkelsen 2024 viser at folk er delt i synet på om kunstig intelligens i det store og hele vil være et gode for samfunnet. Men de er enige i én ting: kunstig intelligens utfordrer personvernet.</strong></p>



<p>I <a href="https://www.datatilsynet.no/regelverk-og-verktoy/rapporter-og-utredninger/personvernundersokelser/personvernundersokelsen-2024/" target="_blank" rel="noreferrer noopener">undersøkelsen </a>presenterer vi funnene fra en befolkningsundersøkelse som ble utført av analyseselskapet Opinion på vegne av Datatilsynet. Vi spurte blant annet om hva folk tenker om kunstig intelligens, og vi ba dem om å ta stilling til ulike påstander.</p>



<figure class="wp-block-image size-full is-resized"><img loading="lazy" decoding="async" width="590" height="362" src="https://www.personvernbloggen.no/wp-content/uploads/2025/01/Bildestat1-1.png" alt="" class="wp-image-3981" style="width:686px;height:auto" srcset="https://www.personvernbloggen.no/wp-content/uploads/2025/01/Bildestat1-1.png 590w, https://www.personvernbloggen.no/wp-content/uploads/2025/01/Bildestat1-1-480x295.png 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) 590px, 100vw" /></figure>



<p>For at maskinlæringsløsninger skal kunne gi presise prediksjoner eller anbefalinger, kreves det ofte bruk av store mengder data. Disse dataene handler ofte om mennesker og vil derfor være å anse som personopplysninger.</p>



<p>I undersøkelsen vår er nesten syv at ti enige i at kunstig intelligens vil utfordre personvernet ved at informasjon om dem samles inn og brukes på måter de ikke er enige i.</p>



<p>Vi har også stilt spørsmål om kunstig intelligens i arbeidslivet. Historisk sett har teknologiske endringer i arbeidslivet skapt stort engasjement ettersom det kan rokke på folks livsgrunnlag, for eksempel om de vil ha en jobb og inntekt i fremtiden.</p>



<p>Omtrent halvparten (51 prosent) sier seg enige i at kunstig intelligens vil føre til at flere mister jobben, uten at det skapes nok nye jobber. Samtidig sier nesten halvparten (47 prosent) seg enige i at kunstig intelligens vil bedre arbeidslivet fordi mennesker slipper å gjøre oppgaver som er kjedelige eller farlige.</p>



<h2 class="wp-block-heading">Holdninger til konkret bruk av kunstig intelligens</h2>



<p>I undersøkelsen vår ba vi videre folk om å ta stilling til konkrete scenarioer hvor KI kan brukes.</p>



<figure class="wp-block-image size-full is-resized"><img loading="lazy" decoding="async" width="581" height="327" src="https://www.personvernbloggen.no/wp-content/uploads/2025/01/Bildestat2.png" alt="" class="wp-image-3982" style="width:688px;height:auto" srcset="https://www.personvernbloggen.no/wp-content/uploads/2025/01/Bildestat2.png 581w, https://www.personvernbloggen.no/wp-content/uploads/2025/01/Bildestat2-480x270.png 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) 581px, 100vw" /></figure>



<p>Den aktiviteten flest (42 prosent) er positive til, er å bruke kunstig intelligens til å stille diagnoser og foreslå behandlinger. Dette kan være fordi mange ser potensialet og nytten ved slik bruk, samt en allerede etablert tillit til helsesektoren. Samtidig er 41 prosent negative, noe som indikerer bekymring for mulige negative konsekvenser.  </p>



<p>Når det gjelder bruken av kunstig intelligens til å behandle lånesøknader i banken, er den største andelen (45 prosent) av folk negative. Dette er bruksområder hvor det har foregått diskusjoner om etiske problemstillinger, slik som rettferdig behandling og diskriminering, og hvorvidt en algoritme kan ta en god beslutning om hvem som får – eller ikke får – stønad eller lån.</p>



<p>Det folk er mest negative til er bruk av kunstig intelligens for måling og kontroll av produktivitet på jobben. Gjennomgående i undersøkelsene Datatilsynet har gjennomført, ser vi at folk er skeptiske til ulike former for kontrolltiltak i arbeidslivet, uavhengig av hvilken teknologi som blir brukt.</p>



<h2 class="wp-block-heading">Myndighetene bør ta en aktiv rolle</h2>



<p>Det er naturlig å tenke på regulering som en løsning på mange av utfordringene som kunstig intelligens kan by på. Men i hvilken grad mener folk at myndighetene bør ta en aktiv rolle i å regulere kunstig intelligens for å sikre en ansvarlig utvikling?</p>



<figure class="wp-block-image size-full is-resized"><img loading="lazy" decoding="async" width="493" height="254" src="https://www.personvernbloggen.no/wp-content/uploads/2025/01/Bildestat3.png" alt="" class="wp-image-3983" style="width:681px;height:auto" srcset="https://www.personvernbloggen.no/wp-content/uploads/2025/01/Bildestat3.png 493w, https://www.personvernbloggen.no/wp-content/uploads/2025/01/Bildestat3-480x247.png 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) 493px, 100vw" /></figure>



<p>Svarene viser at det er bred støtte (84 prosent) for at myndighetene bør ta en aktiv rolle i reguleringen av kunstig intelligens.</p>



<p>Dette synet har også vært fremtredende i den politiske debatten de siste årene. For eksempel var hovedbudskapet i <a href="https://www.regjeringen.no/no/tema/statlig-forvaltning/personvern/personvernkommisjonens-rapport/id2938166/" target="_blank" rel="noreferrer noopener">Personvernkommisjonens rapport</a> fra 2022 at det er nødvendig å få på plass en nasjonal personvernpolitikk for at digitaliseringen skal skje i tråd med grunnleggende menneskerettigheter.</p>



<p>I den nye <a href="https://www.regjeringen.no/no/tema/statlig-forvaltning/it-politikk/ny-nasjonal-digitaliseringsstrategi/id2982892/" target="_blank" rel="noreferrer noopener">digitaliseringsstrategien</a> skriver regjeringen at de ser på digitalisering som en viktig del av løsningen på samfunnsutfordringene våre. Hvordan strategien følges opp i praksis, vil vise om myndighetene faktisk kan bidra og oppfordre til en utvikling av kunstig intelligens på en måte som bevarer tilliten i samfunnet, eller om folk vil være mer skeptiske til bruken av kunstig intelligens på måter som påvirker deres hverdag.</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2025/02/03/hva-mener-folk-om-kunstig-intelligens-og-personvern/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Ikkje hopp på KI-toget uten ein plan for å hoppe av</title>
    <link>https://www.personvernbloggen.no/2025/01/23/ikkje-hopp-pa-ki-toget-uten-ein-plan-for-a-hoppe-av/</link>
    <comments>https://www.personvernbloggen.no/2025/01/23/ikkje-hopp-pa-ki-toget-uten-ein-plan-for-a-hoppe-av/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2025/01/Datatilsynet_Arild-200x200.jpg</avatar>
    <pubDate>Thu, 23 Jan 2025 11:00:41 +0000</pubDate>
    <dc:creator><![CDATA[Arild Opheim]]></dc:creator>
    		<category><![CDATA[Arbeidsliv]]></category>
		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[Informasjonssikkerhet]]></category>
		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[Personvernforordningen (GDPR)]]></category>
		<category><![CDATA[Teknologi]]></category>
		<category><![CDATA[bossware]]></category>
		<category><![CDATA[Copilot]]></category>
		<category><![CDATA[digitalisering]]></category>
		<category><![CDATA[DPIA]]></category>
		<category><![CDATA[exit-strategi]]></category>
		<category><![CDATA[generativ kunstig intelligens]]></category>
		<category><![CDATA[integrert KI]]></category>
		<category><![CDATA[M365 Copilot]]></category>
		<category><![CDATA[NTNU]]></category>
		<category><![CDATA[Overvåking]]></category>
		<category><![CDATA[personvern]]></category>
		<category><![CDATA[personvernkonsekvensvurdering]]></category>
		<category><![CDATA[regulatorisk sandkasse]]></category>
		<category><![CDATA[sandkassa]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3976</guid>
    <description><![CDATA[Det har vore ein røff start på året for mykje av den skinnegåande trafikken her i landet. Berre ordet &#171;tog&#187; kan nok framkalle fukt i augekroken for pendlarar. Men KI-toget dundrer vidare. Kanskje faretruande fort?&#160;Og mange kan nok kjenne på ei frykt for å bli ståande igjen på perrongen. Etter den første bølga med generative [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p>Det har vore ein røff start på året for mykje av den skinnegåande trafikken her i landet. Berre ordet &laquo;tog&raquo; kan nok framkalle fukt i augekroken for pendlarar. Men KI-toget dundrer vidare. Kanskje faretruande fort?&nbsp;Og mange kan nok kjenne på ei frykt for å bli ståande igjen på perrongen.</p>



<p>Etter den første bølga med generative KI-verktøy som kunne gjere mykje artig, var 2024 året for integrerte KI-verktøy i systema vi allereie brukar. Slik som Microsofts M365 Copilot. Vi blir lokka med ein enklare og meir effektiv arbeidskvardag. Men det har også ein pris. Ikkje berre i kroner og øre.</p>



<h2 class="wp-block-heading">Grundig kalkyle frå NTNU</h2>



<p>Kva den prisen blir, er eit komplekst reknestykke. Så kva er vel betre enn at ein tung og truverdig aktør som NTNU tok på seg oppgåva med å rekne seg fram til eit svar. I god akademisk ånd gjekk dei grundig til verks. Og dei involverte oss i Datatilsynet ved å bli med i vår regulatoriske sandkasse. Det er eit veiledningtilbud, der vi kan gå djupare i materien – og ja, på ein måte vere meir løysningsorienterte – enn rammene tillet oss i tradisjonelle veiledningsformer.</p>



<p>Vi merka at mange «der ute» venta i spenning på vurderingane og erfaringane frå prosjektet. I slutten av november lanserte vi rapporten som ser på korleis ein stor offentleg aktør som NTNU eventuelt kan ta i bruk M365 Copilot. </p>



<p><a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/ntnu-sluttrapport-copilot-med-personvernbriller-pa/">Sjå rapporten «Copilot med personvernbriller på»</a>.</p>



<p>Før det hadde NTNU også laga ein rapport med viktige funn utover det reint personvernmessige, der dei tar for seg både forvaltning, opplæring, økonomiske kostnader og korleis eit slikt verktøy kan påverke organisasjonen og arbeidsmiljøet.</p>



<p><a href="https://www.ntnu.no/documents/10507/1350391340/2024-06-17+NTNU+Funnrapport+Pilotere+Copilot+for+Microsoft+365.pdf/f29def95-c64f-067c-3f03-6f5adb120dbc?t=1718604131532">Sjå NTNUs funnrapport</a>.</p>



<h2 class="wp-block-heading">Forsiktig med den røde knappen</h2>



<p>Hovedbudskapet er at verksemder bør vere varsame med å berre trykke på den røde knappen og ta i bruk dette eller liknande integrerte KI-verktøy utan å gjere grundige vurderingar i forkant, i tillegg til å sikre kontrollmekanismar og god opplæring av brukarane. For dette er kraftfulle saker.</p>



<p>Begge rapportane er pedagogisk oppbygd og delt inn i 8-9 funn eller hovedpunkt. Det er verdt å lese dei begge, men som ein appetittvekker, skal du få fem sentrale punkt her: &nbsp;</p>



<h2 class="wp-block-heading">1. <strong>Start med ein strategi.</strong></h2>



<p>Definer tydeleg kva verksemda ønsker å oppnå, kva områder som er aktuelle for KI-bruk og kva områder ein bør halde utanfor. Som hovedregel er generativ KI best når du allereie kan det du vil at den skal hjelpe deg med, du har kapasitet til å kvalitetssikre arbeidet, og er villig til å ta det heile og fulle ansvaret for feil i det den leverer.</p>



<h2 class="wp-block-heading">2. <strong>Sørg for orden i eige hus.</strong></h2>



<p>Dette er superviktig. Copilot finn (og behandlar) all informasjon du har tilgang til. Det er godt muleg at du har tilgang til mykje meir informasjon enn du er klar over. Det kjem an på om verksemda di har stålkontroll, eller ikkje, på tilgangsstyring og alt som fins av personopplysningar i systema som blir brukt. Sjølv om lova krev at verksemder har stålkontroll – om enn i meir juridiske formuleringar – ville det vere naivt av Datatilsynet å ta for gitt – slik leverandøren av Copilot gjer – at absolutt alle faktisk har det.</p>



<p>Ei utfordring med Copilot er at svakheter i &laquo;den digitale grunnmuren&raquo; blir synlege og kraftig forsterka med eit verktøy som har tilgang til alt du har tilgang til &#8211; og veit å utnytte seg av det.</p>



<p>Eller for å ta den positive tilnærminga: premien til dei som har skikkeleg orden i eige hus, er at dei har ein langt kortare veg til å kunne ta i bruk integrert KI, som for eksempel Copilot.</p>



<h2 class="wp-block-heading">3. <strong>Tenk grundig (og kreativt) gjennom kva som kan gå galt?</strong></h2>



<p>Brukarar vil dele alle typar data med, og bruke, generativ kunstig intelligens til det dei kan. Sånn er det berre. Er det muleg, vil det bli gjort. Det er viktig å ta med seg inn når ein skal gjere vurderingar av kva personvernkonsekvensar det vil få å ta i bruk eit slikt verktøy. Ein kan ikkje ta for gitt at folk berre brukar verktøyet slik sjefane har tenkt.</p>



<p>Og apropos sjefane: dette verktøyet kan brukast som bossware. «Kan» her som i teknologisk – ikkje juridisk – mulighet. La meg sitere frå NTNUs funn: </p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>«arbeidsgivere kan vurdere ansattes prestasjoner og adferd basert på skriftlig innhold de har tilgang til, som filer, dokumenter, Teams-chatter, e-postkorrespondanse, Teams-innhold, følelsesreaksjoner (emojis), transkripsjoner fra møter med automatisk opptak, osv. Ansatte har ingen mulighet til å finne ut om en slik vurdering av dem selv har skjedd.»</p>
</blockquote>



<p>NTNU oppdaga at det er lett å få verktøyet til å seie noko om humør og sinnsstemning til andre tilsette. Og:</p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>«Når Copilot har for lite informasjon å jobbe med, kan det oppstå utfordringer med løgn og hallusinasjoner. Det er sannsynlig at Copilot kan &laquo;finne på&raquo; følelser for de ansatte, noe som gjør denne problemstillingen enda mer utfordrende.»</p>
</blockquote>



<p>Ein kanskje litt kontroversiell tanke i NTNU-rapporten er å vurdere om for eksempel leiarar med personalansvar ikkje skal få tilgang til Copilot, mens tilsette «på gølvet» kan få det?</p>



<p>På toppen av det heile er dette eit verktøy i stadig endring – på godt og vondt. Feil blir fortløpande retta, verktøyet blir stadig justert, men nye funksjonar blir også stadig lagt til. Det gjer det utfordrande å forvalte. Det krev ei vaken IT-avdeling. Det krev masse opplæring. Og det krev disiplinerte brukarar.</p>



<p>Så sett frå eit personvernperspektiv; det er mykje som kan gå galt og mange ledd det kan svikte i. Og det er verksemda sitt ansvar å ha tenkt grundig gjennom alt.</p>



<h2 class="wp-block-heading">4. <strong>Vurder alternative løysingar.</strong></h2>



<p>Viss nokon av blomstrane i bedet ser litt tørste ut, set du ikkje heile hagen under vatn. Då er vi tilbake til strategien. Kanskje held det med eit par meir spissa KI-verktøy, som gjer akkurat dei arbeidsoppgåvene det er (mest) behov for, i staden for dei integrerte som skal slurpe i seg det som fins av data i organisasjonen?</p>



<p>Det er definitivt verd å ta med i kalkuleringane, når arbeidet i organisasjonen skal effektiviserast, at det kan vere langt meir ressurskrevande å forvalte eit stort og komplekst verktøy, enn eit par små.</p>



<p>Og &#8211; kanskje litt pussig, men eit siste punkt:</p>



<h2 class="wp-block-heading">5. &nbsp;<strong>Ikkje hopp på KI-toget utan ein exit-strategi</strong>.</h2>



<p>Ha ein klar plan for korleis verktøyet kan bli skrudd av, om nødvendig, før du slår det på.</p>



<p>Nederland har nyleg fraråda statlege verksemder å ta i bruk Copilot. Nokon vil kanskje påstå at vi i praksis gjer det samme. Men nei, teknologien har mykje bra i seg, og det handlar om å finne gode og praktiske tilnærmingar for å ta den i bruk på ein forsvarleg måte. Vår oppfordring er å gjere det i små og kontrollerte steg.</p>



<p>Men &#8211; dersom både dei som bygger KI-toget og passasjerane som kastar seg på er drevet av frykt for å ikkje vere fremst i toget, er det nok oppskrifta på ein ganske forutsigbar 💥 🙈</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2025/01/23/ikkje-hopp-pa-ki-toget-uten-ein-plan-for-a-hoppe-av/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Personverndagen 2024 oppsummert: Kunstig intelligens møter personvern</title>
    <link>https://www.personvernbloggen.no/2024/02/01/personverndagen-2024-oppsummert-kunstig-intelligens-moter-personvern/</link>
    <comments>https://www.personvernbloggen.no/2024/02/01/personverndagen-2024-oppsummert-kunstig-intelligens-moter-personvern/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2024/02/Helle-Jacobsen-scaled_kvadr-200x200.jpg</avatar>
    <pubDate>Thu, 01 Feb 2024 12:34:45 +0000</pubDate>
    <dc:creator><![CDATA[Helle Jacobsen]]></dc:creator>
    		<category><![CDATA[Arrangement]]></category>
		<category><![CDATA[Barn og unge]]></category>
		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[Internasjonalt]]></category>
		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[Personverndagen]]></category>
		<category><![CDATA[Personvernpolitikk]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3909</guid>
    <description><![CDATA[Nylig gikk den 12. markeringen av den internasjonale personverndagen av stabelen i regi av Teknologirådet og Datatilsynet. Etter både fysisk og digitalt oppmøte å dømme, er årets tema brennhett. 2023 har vært et sammenhengende gjennombrudd for generativ kunstig intelligens, og &#171;KI-generert&#187; er årets nyord. Verktøyene er både artige og nyttige, men utfordrer også personvernet. Vi [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p><strong>Nylig gikk den 12. markeringen av den internasjonale personverndagen av stabelen i regi av Teknologirådet og Datatilsynet. Etter både fysisk og digitalt oppmøte å dømme, er årets tema brennhett.</strong> </p>



<p>2023 har vært et sammenhengende gjennombrudd for generativ kunstig intelligens, og &laquo;KI-generert&raquo; er årets nyord. Verktøyene er både artige og nyttige, men utfordrer også personvernet. Vi markerte dagen med et arrangement om tematikken, og løfter her frem noen høydepunkter fra dagen. </p>



<h2 class="wp-block-heading">Hva skjedde i 2023?</h2>



<p>Med Open AI ble generativ KI allemannseie og representerer denne generasjonens viktigste teknologigjennombrudd. Mange mener at hemmeligheten bak suksessen ligger i at modellen oppleves menneskelig når du bruker den. Det ligger dessuten stor variasjon av muligheter i store språkmodeller, fra å lage chatbots og programmeringskode til å skape kunst og oversette tekster, for å nevne noe.</p>



<p>Denne kraftige teknologien har også noen skyggesider knyttet til de enorme datamengdene modellen er trent på, slik som manglende åpenhet og potensial for misbruk av ondsinnede aktører. Som konsekvens krevde 1000 eksperter et midlertidig forbud, og idet italienske datatilsynet påla OpenAI om å stanse all behandling av data fra italienske brukere, kunne direktør i Datatilsynet, Line Coll, fortelle.</p>



<p>Av andre saker med stor betydning i 2023 trakk Line frem følgende:</p>



<ul class="wp-block-list">
<li>EU-U.S. Data Privacy Framework: Et nytt avtaleverk som gjør det mulig å overføre personopplysning mellom EU og USA.   </li>



<li>Meta-saken: Datatilsynet fattet et vedtak om at Metas behandling av personopplysninger for adferdsbasert markedsføring var ulovlig på Facebook og Instagram.</li>



<li>Barns personvern neglisjeres: Amazon fikk bot for å lagre taledata gjennom Alexa og klokker som primært brukes av barn. TikTok fikk bot for ikke å ha godt nok personvern for mindreårige. I Norge har strømming av barneidrett vært en het potet.</li>
</ul>



<h2 class="wp-block-heading">Trender i 2024</h2>



<p>Direktør i Teknologirådet, Tore Tennøe, gikk gjennom noen trender og forsøkte å se inn i personvernets umiddelbare fremtid. Det knyttes blant annet stor interesse til bruken av ansiktsgjenkjenningsteknologi i tiden fremover, som for eksempel under OL i Paris. Skal man kunne gjenkjenne ansikter, eller bare posisjoner og mistenkelige objekter? Diskusjonen aktualiserer etterretningsbehov mot retten til privatliv.</p>



<p>AI Act er nylig vedtatt, og blir et avgjørende rammeverk for utviklingen av KI fremover, også med hensyn til bruken av biometri, som i ansikts- og følelsesgjenkjenningsteknologi.</p>



<p>2024 markerer antakeligvis begynnelsen på slutten på den opprinnelige overvåkingsteknologien – informasjonskapselen. Google vil kutte det ut i sin nettleser Chrome i løpet av 2024.</p>



<p><em>Nysgjerrig på å se dypere inn i spåkula? Se opptaket! (link nederst i dette blogginnlegget). </em></p>



<h2 class="wp-block-heading">Kan man trene språkmodeller med data fra nettet?</h2>



<p>I utviklingen av Open AI ble det brukt enorme mengder data fra en stor variasjon av kilder. Selskapet er sparsomme med å fortelle hvor de har hentet data fra. Tore viste imidlertid en analyse av et snapshot som viste kilder som sosiale medier, nettsider, elektroniske bøker, et valgregister og personlige blogger. Både Google og Open AI har fått søksmål mot seg grunnet denne typen praksis.</p>



<p>Det sentrale i en personvernsammenheng er at man må ha et lovlig behandlingsgrunnlag for å kunne behandle personopplysninger<strong>. </strong>Vi diskuterte behandlingsgrunnlaget &laquo;berettiget interesse&raquo;, og i hvilken grad dette kan brukes til å innhente data. Det er flere saker knyttet til dette i Europa nå.</p>



<p>Behandlingsgrunnlag er altså nøkkelen, også til andre modeller innen ulike domener som for eksempel finans, utdanning og helse. Dataene får stadig nye formål, og utfordrer eksempelvis både pasientenes og de ansattes rett til personvern. Her er det noen utfordringer. Skal man spørre om samtykke igjen? Hva gjør man med de som sier nei? Bør man heller anonymisere eller bruke syntetiske data?</p>



<h2 class="wp-block-heading">Kunstig intelligens og personvern i den virkelige verden</h2>



<p>Eivind Arntsen er advokat og leder av <a href="https://juridiskabc.no/" target="_blank" rel="noreferrer noopener">Juridisk ABC</a>, en tjeneste basert på generativ KI som skal gjøre det enklere for arbeidsgivere å manøvrere riktig innenfor arbeidsrett. De ønsker å tilpasse tjenesten med å gi den tilgang til dommer og lovtekst, noe som utgjør deres primære utfordring. Juridisk ABC er for øvrig ett av fire prosjekter i <a href="https://www.datatilsynet.no/aktuelt/aktuelle-nyheter-2023/tid-for-sprakmodeller-i-sandkassa/" target="_blank" rel="noreferrer noopener">Datatilsynets regulatoriske sandkasse</a> våren 2024.</p>



<p>Umair M. Imam er sjef for data og KI i Ruter, og har erfaring med å bruke KI i et titalls prosjekter i Ruter. De bruker for eksempel generativ KI for å analysere klager. Brukere deler ofte data om seg selv i disse klagene, noe Ruter løser ved hjelp av en algoritme som «gjemmer» persondataene.</p>



<p>Julie Lødrup er førstesekretær i LO, og benyttet anledningen til å løfte frem prinsippet om arbeidstakeres rett til medbestemmelse. Den fungerer stort sett godt på alle felt i det norske arbeidslivet, unntatt ett: digitalisering. Hun mener dette skyldes at både arbeidsgivere og arbeidstakere anser teknologi generelt, og kanskje KI spesielt, som noe vanskelig og som kun angår teknologene. De som skal bruke teknologien bør involveres. Hun fremhevet også utfordringen med at teknologien som anskaffes ofte er laget i land med andre arbeidsmodeller som ikke er like opptatt av arbeideres rettigheter. Om programvaren har funksjonalitet som gjør det mulig å overvåke de ansatte, kan det være lett for arbeidsgiver å la seg friste.</p>



<h2 class="wp-block-heading">Er politikken tilpasset terrenget? </h2>



<p>På fjorårets personverndag ble en nasjonal personvernpolitikk diskutert, og i år fulgte vi opp med siste status i politikken. I løpet av sommeren 2024 skal en ny digitaliseringsstrategi og en ny personvernstrategi være ferdig, og de to skal henge tett sammen, fortalte statssekretær Gunn Karin Gjul (Ap). For å unngå at denne politikken ender opp med kun strategier og lite handling, ønsker Grunde Almeland (V) en mer demokratisk forankret stortingsmelding på temaet.&nbsp; &nbsp;</p>



<p>En annen stor sak er KI-forordningen (AI Act), som vil treffe stortinget gjennom lovgivning. Gjul orienterte om at dette er EØS-relevant, og at myndighetene er i gang med dette arbeidet allerede. Det er ikke bestemt hvordan dette skal organiseres, og Digitaliserings- og forvaltningsdepartementet har gitt DFØ i oppdrag å utrede mulige organisatoriske systemer som algoritmetilsyn, overordnet tilsyn og rapporteringsordninger.</p>



<p>Avslutningsvis spurte Tore, på vegne av en venn, om det er greit å ha en KI-kjæreste. Panelet var enige om at det måtte være opp til den enkelte, men med ett premiss: at leverandøren av KI-kjæresten opererer innenfor loven. Og det skal vi hjelpe dem med, rundet Line av med.&nbsp;</p>



<p><a href="https://www.datatilsynet.no/aktuelt/aktuelle-nyheter-2023/personverndagen-2024-kunstig-intelligens-moter-personvern/" target="_blank" rel="noreferrer noopener">Se opptak av hele arrangementet på Datatilsynets nettsider.</a></p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2024/02/01/personverndagen-2024-oppsummert-kunstig-intelligens-moter-personvern/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Verdens første KI-lov til Norge: Hvilke utfordringer vil reglene løse?</title>
    <link>https://www.personvernbloggen.no/2024/01/29/verdens-forste-ki-lov-til-norge-hvilke-utfordringer-vil-reglene-lose/</link>
    <comments>https://www.personvernbloggen.no/2024/01/29/verdens-forste-ki-lov-til-norge-hvilke-utfordringer-vil-reglene-lose/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2021/12/20211025_Datatilsynet_Tobias_002_kvadrat-–-Kopi-200x200.jpg</avatar>
    <pubDate>Mon, 29 Jan 2024 07:18:08 +0000</pubDate>
    <dc:creator><![CDATA[Tobias Judin]]></dc:creator>
    		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[Lovgivning]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3897</guid>
    <description><![CDATA[Dette innlegget, signert direktør Line Coll og seksjonssjef Tobias Judin, sto på trykk i Aftenposten 29. januar 2024. EU finpusser verdens første kunstig intelligens(KI)-lov, og en lekket versjon begynte å sirkulere på nett denne uken. Hvilke utfordringer vil reglene løse, og hvilke gjenstår? Førsteamanuensis og Aftenposten-spaltist Inga Strümke skriver med rette at vi trenger EUs KI-forordning for [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p><strong>Dette innlegget, signert direktør Line Coll og seksjonssjef Tobias Judin, sto på trykk i Aftenposten 29. januar 2024.</strong></p>



<p>EU finpusser verdens første kunstig intelligens(KI)-lov, og en lekket versjon begynte å sirkulere på nett denne uken. Hvilke utfordringer vil reglene løse, og hvilke gjenstår?</p>



<p>Førsteamanuensis og Aftenposten-spaltist <a href="https://www.aftenposten.no/meninger/kommentar/i/wA1AAA/eu-vil-bli-verdensledende-hva-med-norge">Inga Strümke skriver med rette</a> at vi trenger EUs KI-forordning for å regulere KI. Samtidig er vi ikke helt enige i at reglene rydder opp i paragrafjungelen.</p>



<p>Forordningen samler ikke KI-regler på ett sted, men kommer i tillegg til andre lover som regulerer KI, slik som GDPR (personvernforordningen). Det er også mange KI-systemer som ikke er omfattet av forordningen.</p>



<p>Strümke har også rett i at Norge må jobbe godt med å få reglene inn i norsk rett. Utfordringen er å innføre reglene på en måte som tar ned kompleksiteten for virksomheter og samtidig ivaretar verdiene i samfunnet.</p>



<h2 class="wp-block-heading">Forbud og samspill</h2>



<p>Forordningen inneholder flere forbud og vil tilrettelegge for KI som vi kan stole på, og som ivaretar menneskerettigheter og demokrati. For eksempel forbys manipulativ KI som forårsaker vesentlig skade.</p>



<p>Imidlertid forbys ikke KI som bare fører til medium skade. Det skaper uklarhet og rom for omgåelse. Spørsmålet er da hvor effektive reglene vil være. Dette er et av mange eksempler på at forordningen må suppleres, helst av klare nasjonale regler. I det minste av etikk og fornuft.</p>



<p>Reglene oppstiller også plikter for høyrisiko-KI. Eksempler er KI som brukes til rekruttering eller avgjørelser om trygdeytelser. Det stilles krav til risikovurdering, gode treningsdata, testing, dokumentasjon og involvering av mennesker. Algoritmene må være nøyaktige og sikre nok.</p>



<p>Mange av pliktene overlapper med GDPR. Det er derfor både viktig og ressursbesparende å se de to lovene i sammenheng, av hensyn til gode helhetsvurderinger og for å unngå dobbeltarbeid.</p>



<p>De fleste av de nye pliktene gjelder tilbyderne. Samtidig reguleres hele verdikjeden, også de som skal bruke KI, som får en huskeliste: Følg bruksanvisningen, husk opplæring, bruk representative data og meld avvik.</p>



<h2 class="wp-block-heading">Generativ KI</h2>



<p>Forordningen vil også regulere KI-modeller som kan brukes til ulike formål, som generativ KI.</p>



<p>Tilbyderne må dokumentere modellenes evner og begrensninger, tenke opphavsrett samt publisere oversikt over treningsdata. De mest kompliserte modellene må ha risikoreduserende tiltak.</p>



<p>Det blir EU-kommisjonen som skal håndheve akkurat disse reglene.</p>



<h2 class="wp-block-heading">Tilsyn</h2>



<p>Hva gjelder tilsyn med de øvrige reglene, peker forordningen i ulike retninger: til datatilsynene for justissektoren og til finanstilsynene for finanssektoren. Ut over det må hvert land velge sin(e) tilsynsmyndighet(er).</p>



<p>Spørsmålet nå er om vi ønsker å legge mest mulig ett sted, eller om vi ønsker en sektorvis og fragmentert tilnærming.</p>



<p>Tilsynsmyndighetene skal imidlertid ikke bare sanksjonere, men også støtte ansvarlig innovasjon gjennom regulatoriske sandkasser,&nbsp;<a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/" target="_blank" rel="noreferrer noopener">slik Datatilsynet tilbyr</a>.</p>



<p>KI-forordningen løser ikke alt. Det er smutthull, mange former for KI er ikke omfattet, vi må unngå dobbeltarbeid, og vi må lage et godt system for tilsyn.</p>



<p>Hvordan vi løser dette, vil avgjøre om Norge lykkes med KI.</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2024/01/29/verdens-forste-ki-lov-til-norge-hvilke-utfordringer-vil-reglene-lose/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Kameraovervåking med personvern i fokus?</title>
    <link>https://www.personvernbloggen.no/2023/09/25/kameraovervaking-med-personvern-i-fokus/</link>
    <comments>https://www.personvernbloggen.no/2023/09/25/kameraovervaking-med-personvern-i-fokus/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2020/08/Profilbilde_Magnus-scaled-e1597911334538-200x200.jpg</avatar>
    <pubDate>Mon, 25 Sep 2023 08:25:41 +0000</pubDate>
    <dc:creator><![CDATA[Magnus Mühlbradt]]></dc:creator>
    		<category><![CDATA[Dataanalyse]]></category>
		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[Innebygd personvern]]></category>
		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[Teknologi]]></category>
		<category><![CDATA[ansvarlig kunstig intelligens]]></category>
		<category><![CDATA[intelligent video analyse]]></category>
		<category><![CDATA[IVA]]></category>
		<category><![CDATA[kameraovervåking]]></category>
		<category><![CDATA[kameraovervåkning]]></category>
		<category><![CDATA[regulatorisk sandkasse]]></category>
		<category><![CDATA[Sandkasse for ansvarlig kunstig intelligens]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3858</guid>
    <description><![CDATA[«Intelligente» overvåkingskameraer blir stadig oftere tatt i bruk. Disse kameraene gjør dyptgående analyser av atferden til de som blir overvåket, og kan derfor potensielt være særdeles inngripende. Men hvordan sikrer vi personvernet ved bruk av slik teknologi? Overvåkingskameraer har gjennomgått en bemerkelsesverdig teknologisk utvikling de siste tiårene. Et av de viktigste fremskrittene er intelligent videoanalyse, [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p>«Intelligente» overvåkingskameraer blir stadig oftere tatt i bruk. Disse kameraene gjør dyptgående analyser av atferden til de som blir overvåket, og kan derfor potensielt være særdeles inngripende. Men hvordan sikrer vi personvernet ved bruk av slik teknologi?<em> </em></p>



<p>Overvåkingskameraer har gjennomgått en bemerkelsesverdig teknologisk utvikling de siste tiårene. Et av de viktigste fremskrittene er intelligent videoanalyse, der algoritmer analyserer og tolker videostrømmer, uten hjelp fra mennesker.</p>



<p>Teknologien kan utføre et mangfold av oppgaver. Alt fra enkle ting, som å detektere når en dør åpner seg, til mer inngripende former for overvåking, som involverer avansert analyse av ansikter og bevegelses- og atferdsmønstre.</p>



<p>Men er det mulig å bruke slik teknologi, som kan overvåke mennesker, og samtidig ivareta kravene i personvernregelverket? Dette var bakgrunnen for at Datatilsynet samarbeidet med sikkerhetsselskapet Doorkeeper i vår <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/">regulatoriske sandkasse</a>.</p>



<h2 class="wp-block-heading"><strong>Er det mulig med personvernvennlig overvåking?</strong></h2>



<p>I prosjektet utforsket vi mulighetene for å konfigurere intelligent videoanalyse slik at behandlingen av personopplysninger blir mindre inngripende. Doorkeepers løsning for å gjøre dette var blant annet å:</p>



<ul class="wp-block-list">
<li>Unngå kontinuerlig opptak av videostrømmen. Doorkeeper vil kun «aktivere» opptak når løsningen registrerer en forhåndsdefinert sikkerhetstrussel, for eksempel knusing av et butikkvindu. Dette vil gjøre at virksomheten ikke har løpende opptak av personer som ikke er relevante for hendelsen.</li>



<li>Ansikter og menneskeformer sladdes i sanntid fra videostrømmen. Dette betyr at personene i videostrømmen ikke vil være direkte identifiserbare med mindre en uønsket hendelse oppstår.</li>
</ul>



<p>Vi har også diskutert hvorvidt intelligent videoanalyse vil endre hvor det er lovlig å overvåke. Datatilsynets funn tyder på at dette i liten grad endres selv med kameraer som kan fjerne visse personopplysninger fra videostrømmen. For eksempel er det bare offentlige myndigheter som har lov til å overvåke offentlige steder. Dette endres ikke selv om private virksomheter tar i bruk mer «personvernvennlige» løsninger. </p>



<p>Men et interessant unntak fra dette er når kameraet konfigureres som en sensor med formål om å detektere brann- og røykutvikling. I et hypotetisk tilfelle hvor et slikt kamera skal detektere brann på en kirkevegg, vil løsningen muligens oppfylle lovkravene hvis behandlingen av personopplysninger er svært begrenset og metoden er bedre egnet til å oppnå formålet enn andre mindre inngripende løsninger, som for eksempel en vanlig brannalarm.</p>



<h2 class="wp-block-heading"><strong>Nye bruksområder for overvåkingskameraer</strong><strong></strong></h2>



<p>Til tross for at intelligente løsninger i liten grad endrer hvor det er mulig å sette opp et kamera, har mange sett nye bruksområder for teknologien. Ett eksempel på dette er bruken av «feberkameraer» under pandemien. Disse ble installert på sykehus og fotballstadioner for å analysere besøkendes temperaturer og oppdage mulige COVID-19-smittebærere.</p>



<p>I Europa har det også vært en opphetet debatt om intelligent overvåking på kollektivtransport. For eksempel da selskapet Eurostar implementerte intelligente løsninger på sine tog, for å analysere passasjerenes humør og ansiktstrekk. Formålet var å identifisere potensielle trusler mot andre passasjerer.</p>



<p>Personvernproblematikken ved disse eksemplene er todelte. I det konkrete tilfellet er det spørsmål om overvåkingen er forsvarlig, om den er for inngripende og om den oppfyller lovens krav. På et samfunnsnivå handler spørsmålet om den totale graden av kontroll og det voksende «overvåkingstrykket» som gjør at det er stadig færre steder vi kan bevege oss fritt uten å bli observert.</p>



<h2 class="wp-block-heading"><strong>Sikkerhet, overvåking og personvern</strong></h2>



<p>Sikkerhet, overvåking og personvern kan være motstridende interesser. På den ene siden kan overvåking være nødvendig for å sikre både mennesker og materielle verdier. Men man har ofte sett at dette kan gå utover integriteten til enkeltpersoner og retten til et privatliv, ved uønsket overvåking i situasjoner man vil være i fred, eller ved misbruk av opplysninger fra videostrømmen.</p>



<p>Teknologi som markedsføres som «personvernvennlig» kan også gi en falsk følelse av trygghet. Som vi har drøftet i sandkasse-prosjektet, er det avgjørende at slik teknologi kommer sammen med konkrete tiltak som begrenser muligheten for brudd på personvern. Dette inkluderer å sørge for at personvern er standardinnstillingen i konfigurasjonen, å ivareta informasjonssikkerheten i alle ledd, og hindre at uvedkommende får tilgang til å se eller manipulere videostrømmen.</p>



<h2 class="wp-block-heading"><strong>Falske positiver og bias i treningen</strong></h2>



<p>Et tilbakevendende problem med løsninger som bygger på kunstig intelligens, er falske positiver. Falske positiver&nbsp;kan føre til at behandlingen av personopplysninger blir mer omfattende enn&nbsp;det den ansvarlige virksomheten&nbsp;har lov til. I tilfellet av kameraovervåking for sikkerhetsformål kan det også ha seriøse negative konsekvenser for enkeltpersoner. For eksempel kan en person bli feilaktig beskyldt for handlinger de ikke har begått, eller at man – via <em>biaser</em> i dataene som systemet er trent på – blir profilert basert på hudfarge eller andre sensitive fysiske trekk.</p>



<p>I motsetning vil&nbsp;falske negativer&nbsp;kunne medføre at overvåkingen ikke oppfyller formålene den er ment eller trent å oppfylle. Enhver som benytter intelligent kameraovervåking må derfor følge med på eventuelle falske positiver og negativer, og kontinuerlig tilpasse løsningen slik at den fungerer etter hensikt.</p>



<h2 class="wp-block-heading"><strong>Personvern er både et lovkrav og et konkurransefortrinn</strong></h2>



<p>For virksomheter som vil ta i bruk intelligent videoanalyse, vil et godt personvern være et helt klart konkurransefortrinn i markedet. Ved å vise at man tar personvern seriøst – og at man etterlever lovkravene – bygger man tillit hos virksomhetene som skal ta i bruk teknologien – samt ansatte, kunder og andre som er eksponert for overvåkingen.</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2023/09/25/kameraovervaking-med-personvern-i-fokus/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>En personvernguide til Arendalsuka 2023</title>
    <link>https://www.personvernbloggen.no/2023/06/29/en-personvernguide-til-arendalsuka-2023/</link>
    <comments>https://www.personvernbloggen.no/2023/06/29/en-personvernguide-til-arendalsuka-2023/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2018/09/Janne-Stang-Dahl_avatar_1535984869-200x200.jpg</avatar>
    <pubDate>Thu, 29 Jun 2023 11:16:48 +0000</pubDate>
    <dc:creator><![CDATA[Janne Stang Dahl]]></dc:creator>
    		<category><![CDATA[Arendalsuka]]></category>
		<category><![CDATA[Arrangement]]></category>
		<category><![CDATA[Barn og unge]]></category>
		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[Offentlig forvaltning]]></category>
		<category><![CDATA[Personvernpolitikk]]></category>
		<category><![CDATA[Teknologi]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3828</guid>
    <description><![CDATA[Den andre uka av august, butt i butt med sommerferien for mange, er det Arendalsuka igjen. I år som i fjor er digitalisering og kunstig intelligens tema hos flere. Et raskt søk i programmet viser ikke overraskende at generativ AI har gjort sin inntogsmarsj. Hele 13 arrangementer tematiserer nå dette. Personvern er også tema i mange [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p><strong>Den andre uka av august, butt i butt med sommerferien for mange, er det Arendalsuka igjen. I år som i fjor er digitalisering og kunstig intelligens tema hos flere. Et raskt søk i programmet viser ikke overraskende at generativ AI har gjort sin inntogsmarsj. Hele 13 arrangementer tematiserer nå dette. Personvern er også tema i mange arrangementer, og Datatilsynet er intensivt til stede i midten av uka.</strong></p>



<h2 class="wp-block-heading">Generativ AI: Trussel eller mulighet?</h2>



<p>Mange av dataene som brukes til å trene opp Generativ AI, inneholder personopplysninger. Disse opplysningene er hentet inn fra ulike kilder på internett. Teknologien kan gi tilsynelatende gode svar, men også gi villedende og feil svar. Generativ AI er i stand til å skape realistiske bilder, videoer, og tekster, noe som gjør det enda enklere å produsere og spre desinformasjon og falske nyheter, noe som har blitt en utfordring for demokratier og samfunn over hele verden. </p>



<p>Dette er tema for det første arrangementet som vi deltar på i år, og er <a href="https://program.arendalsuka.no/event/user-view/20262" target="_blank" rel="noreferrer noopener">i regi av Mediaklyngen/Media City Bergen</a>.</p>



<h2 class="wp-block-heading">Personvern er politikk</h2>



<p>Spørsmål om personvern berører alle samfunnsområder. <a href="https://www.regjeringen.no/no/tema/statlig-forvaltning/personvern/personvernkommisjonens-rapport/id2938166/" target="_blank" rel="noreferrer noopener">Personvernkommisjonens rapport</a> fra sist høst ble fulgt opp i år med mange høringsuttalelser. Vi var ikke snauere enn at vi leverte fra oss et <a href="https://www.datatilsynet.no/regelverk-og-verktoy/lover-og-regler/hoeringsuttalelser/horingsuttalelser-2023/horingssvar-til-personvernkommisjonen/" target="_blank" rel="noreferrer noopener">16 siders høringssvar</a> med tiltak som vi mener at det er avgjørende å følge opp. Vi er som kommisjonen tydelige på at vi trenger en nasjonal personvernpolitikk. Nå. </p>



<p>Datatilsynet starter derfor uka med sterk tilstedeværelse på KiNS sitt arrangement <a href="https://program.arendalsuka.no/event/user-view/20915" target="_blank" rel="noreferrer noopener">Nasjonal personvernpolitikk – Hvorfor det og hvordan?</a><strong> </strong>Line Coll debuterer under Arendalsuka i år som direktør for Datatilsynet, og er med på å diskutere hvordan vi kan løfte fram en nasjonal personvernpolitikk. </p>



<p>Etter vårt syn er det mye moden frukt å plukke fra Personvernkommisjonens rapport. En av de mest overmodne, er oppfølgingen av personvernet i skole og barnehager. Seksjonsleder Camilla Nervik gir gode råd til aktiv handling når <a href="https://www.regjeringen.no/no/dokumenter/strategi-for-digital-kompetanse-og-infrastruktur-i-barnehage-og-skole/id2972254/" target="_blank" rel="noreferrer noopener">Strategi for digital kompetanse og infrastruktur i barnehage og skole</a> skal følges opp på Arendalsuka under programposten <a href="https://program.arendalsuka.no/event/user-view/21339" target="_blank" rel="noreferrer noopener">Personvern i oppvekstsektoren</a>, også i regi av KiNS. </p>



<p>Hvis du ikke klarer å vente helt til midten av august, kan du lytte til <a href="https://www.datatilsynet.no/regelverk-og-verktoy/personvernpodden/2023/5-polser-og-personvernpolitikk-med-personvern-i-skolesekken/" target="_blank" rel="noreferrer noopener">én av våre podkast-episoder som diskuterer nettopp skole og personvernpolitikk</a>. Episoden er for øvrig del av en podkastserie under tilsynets podkastsatsing «Personvernpodden» som følger opp personvernkommisjonens rapport. Der du hører podkast.&nbsp;</p>



<h2 class="wp-block-heading">Digitalisering av offentlig og privat sektor. Igjen.</h2>



<p>Regjeringen skal meisle ut en ny <a href="https://www.regjeringen.no/no/tema/statlig-forvaltning/ikt-politikk/ny-nasjonal-digitaliseringsstrategi/id2982892/" target="_blank" rel="noreferrer noopener">digitaliseringsstrategi</a>. Strategien skal «stake ut kursen for videre digitalisering av offentlig sektor, legge bedre til rette for næringslivsrettet digitalisering og ta opp viktige samfunnsspørsmål.» Personvern er et soleklart viktig samfunnsspørsmål i så måte. Personvernkommisjonen peker på at utvikling av ny teknologi skjer raskt og uten at vi alltid har full oversikt over konsekvensene. Inngripende teknologi blir fort normalisert og allment akseptert, og personvernet svekkes gradvis. Dette er problemstillinger som må inn i strategien, og som må diskuteres i den offentlige samtalen. </p>



<p>Avdelingsdirektør Veronica Jarnskjold Buer stiller til debatt under vignetten <a href="https://program.arendalsuka.no/event/user-view/21137">Er regelverk for bruk av data i ferd med å kvele digitaliseringen av Norge?</a></p>



<h2 class="wp-block-heading">Skal barnas fritid legges ut på nettet?</h2>



<p>Vårt eget hovedarrangement i år tematiserer én av vårens store debatter, nemlig strømming av barneidrett. De siste årene har stadig flere arrangementer for barn blitt filmet og lagt ut på nettet, en utvikling som skjøt fart under koronapandemien. Slik praksis kan være til nytte og til glede for mange, men det er også flere som melder sine bekymringer for at stadig flere idrettsarrangementer filmes og publiseres. Ivaretar vi barns rett til personvern hvis også fritidsaktiviteter filmes og gjøres tilgjengelig for allmenheten? Vi har nylig publisert veilederen  <a href="https://www.datatilsynet.no/aktuelt/aktuelle-nyheter-2023/stromming-av-idrettsarrangement-for-barn/" target="_blank" rel="noreferrer noopener">Strømming av idrettsarrangement for barn</a> som aktualiserer ulike spørsmål. </p>



<p>I panelsamtalen <a href="https://program.arendalsuka.no/event/user-view/20287" target="_blank" rel="noreferrer noopener">En uforglemmelig barndom eller en barndom du helst vil glemme? En debatt om strømming av barneidrett</a> belyses spørsmålet fra ulike aktører som har vært sentrale i den offentlige debatten. Vi gleder oss.</p>



<h2 class="wp-block-heading">Kunstig intelligens i forvaltningen – et spørsmål om tillit</h2>



<p>På torsdag plukker vi igjen opp digitaliseringsstrategien, og er med i debatten <a href="https://program.arendalsuka.no/event/user-view/20204" target="_blank" rel="noreferrer noopener">Hva skjer med tilliten til staten, hvis vi lar kunstig intelligens fatte beslutninger i saksbehandling</a>? Arkivverket spør klokelig «hvem har ansvaret for konsekvensene av en beslutning som er truffet av kunstig intelligens? Et bredt panel skal forsøke å svare, og vår egen direktør deltar.</p>



<h2 class="wp-block-heading">Skal politiet få lete i din slekt?</h2>



<p>Og til slutt: Vi vet alle at DNA sier svært mye om oss, og kan løse mange saker. I et prøveprosjekt har Politiet nå prøvd ut nye verktøy, slik som søk i internasjonale slektskapsdatabaser i kombinasjon med slektsforskning. Men bør virkelig Politiet ta i bruk de nye DNA-metodene når prosjektet er klart? Og hvilke begrensninger bør man eventuelt sette inn hvis politiet skal få lete i din slekt? </p>



<p>Camilla Nervik deltar i debatten <a href="https://program.arendalsuka.no/event/user-view/21000" target="_blank" rel="noreferrer noopener">DNA løser gamle krimsaker – skal politiet få lete i din slekt?</a>, sammen med både Kripos og en kjent krimforfatter. Det blir spennende!</p>



<p>God Arendalsuke til alle, og husk at du kan følge med digitalt på mange av arrangementene så å si hvor enn du er i verden.</p>



<p>Se ellers vår <a href="https://www.datatilsynet.no/aktuelt/aktuelle-nyheter-2023/mot-datatilsynet-pa-arendalsuka-2023/">oversikt over arrangementer som Datatilsynet deltar på</a> eller les mer på <a href="https://www.arendalsuka.no/" target="_blank" rel="noreferrer noopener">Arendalsuka sine nettsider.</a> </p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2023/06/29/en-personvernguide-til-arendalsuka-2023/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
  </channel>
</rss>