<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
  xmlns:content="http://purl.org/rss/1.0/modules/content/"
  xmlns:wfw="http://wellformedweb.org/CommentAPI/"
  xmlns:dc="http://purl.org/dc/elements/1.1/"
  xmlns:atom="http://www.w3.org/2005/Atom"
  xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
  xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
  >
<channel>
  <title>PersonvernbloggenTeknologi Archives - Personvernbloggen</title>
  <atom:link href="https://www.personvernbloggen.no/category/teknologi/feed/" rel="self" type="application/rss+xml" />
  <link>https://www.personvernbloggen.no/category/teknologi/</link>
  <description>Datatilsynets blogg om personvernspørsmål</description>
  <lastBuildDate>Wed, 28 Jan 2026 19:31:14 +0000</lastBuildDate>
  <language>nb-NO</language>
    <sy:updatePeriod>hourly</sy:updatePeriod>
    <sy:updateFrequency>1</sy:updateFrequency>
  <generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.personvernbloggen.no/wp-content/uploads/2018/03/cropped-DT-Favicon-32x32.jpg</url>
	<title>Teknologi Archives - Personvernbloggen</title>
	<link>https://www.personvernbloggen.no/category/teknologi/</link>
	<width>32</width>
	<height>32</height>
</image> 
  <item>
    <title>Personvern er beredskap i en urolig verden</title>
    <link>https://www.personvernbloggen.no/2026/01/28/personvern-er-beredskap-i-en-urolig-verden/</link>
    <comments>https://www.personvernbloggen.no/2026/01/28/personvern-er-beredskap-i-en-urolig-verden/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2022/10/cropped-20220805_datatilsynet_line_coll_021-kvadr-200x200.jpg</avatar>
    <pubDate>Wed, 28 Jan 2026 19:23:38 +0000</pubDate>
    <dc:creator><![CDATA[Line Coll]]></dc:creator>
    		<category><![CDATA[Informasjonssikkerhet]]></category>
		<category><![CDATA[Internasjonalt]]></category>
		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[Personvernpolitikk]]></category>
		<category><![CDATA[Planer og strategier]]></category>
		<category><![CDATA[Teknologi]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=4108</guid>
    <description><![CDATA[Samfunnssikkerhet handler ikke lenger bare om soldater, forsyningslinjer og fysisk infrastruktur, men også om data, teknologi og kontroll over informasjon. I en verden preget uro, er personvern en viktig del av vår nasjonale beredskap.]]></description>
        <content:encoded><![CDATA[
<p><strong>Samfunnssikkerhet handler ikke lenger bare om soldater, forsyningslinjer og fysisk infrastruktur, men også om data, teknologi og kontroll over informasjon. I en verden preget uro, er personvern en viktig del av vår nasjonale beredskap.</strong></p>



<p><em>Dette innlegget er skrevet av Line Coll, direktør i Datatilsynet, og Kari Laumann, seksjonssjef for utredning, analyse og politikk i Datatilsynet. <a href="https://www.altinget.no/digital/artikkel/personvern-er-beredskap-i-en-urolig-verden" target="_blank" rel="noreferrer noopener">Innlegget ble først publisert i Altinget 28.01.2026.</a></em></p>



<p>Her hjemme har vi akkurat sparket i gang 2026, som av myndighetene er utpekt som Totalforsvarsåret. På bortebane ser vi at gamle allianser knaker og at den gamle regelbaserte verdensordenen utfordres. Teknologi har blitt et sentralt maktmiddel i geopolitikk, og personvern spiller en stadig viktigere rolle i sikkerhetspolitikken.</p>



<h2 class="wp-block-heading">Tekoligarker og avhengighet</h2>



<p>Store deler av Norges digitale infrastruktur er levert av en håndfull amerikanske selskaper. Disse selskapene er ikke bare teknologileverandører, men også globale maktaktører, og leverer alt fra fiber, datasentre, skytjenester og operativsystemer, både i privat og offentlig sektor i Norge.</p>



<p><em>Tekoligark</em> var årets nyord i 2025. Begrepet viser til en ny maktkonsentrasjon der økonomisk, teknologisk og politisk innflytelse smelter sammen. Mange av teknologiselskapene har tette bånd til Trump-administrasjonen og liker ikke reguleringer som står i veien for kommersiell handlefrihet.</p>



<p>Det kommer stadig nye eksempler på hvilke konsekvenser dette har i praksis. Da Microsoft stengte e-postkontoen til sjefsanklageren i Den internasjonale straffedomstolen (ICC), ble mange europeiske land minnet om hvor sårbare vi er. Utestengelsen skjedde etter amerikanske sanksjoner mot domstolen, som følge av arrestordre mot statsminister Netanyahu og andre israelske tjenestemenn for påståtte krigsforbrytelser i Gaza.</p>



<p>I Kina, den andre teknologiske stormakten i verden, kan myndighetene pålegge kinesiske selskaper å dele personopplysninger med dem. Diskusjonen om de hundrevis av kinesiskproduserte bussene som kjører rundt i Norge er også illustrerende. Busser utgjør kritisk infrastruktur i for eksempel evakueringssituasjon – og spørsmålet som er reist er om disse kan fjernstyres eller settes ut av drift av produsenten.</p>



<h2 class="wp-block-heading">Europeiske verdier under press</h2>



<p>Personopplysningene våre befinner seg midt oppi det hele. De er tett vevd inn i tjenestene og den digitale infrastrukturen som kan utnyttes, enten til angrep, overvåking, påvirkning eller manipulering av informasjon.</p>



<p>Som et lite og sårbart land har Norge en lang tradisjon for å støtte opp under en regelbasert verdensorden. For å møte en fremtid som utfordrer denne tradisjonen ser vi et tydelig behov for å vurdere graden av kontroll vi har over teknologisk infrastruktur og dataene som flyter i den.</p>



<p>Personvernregelverket i Europa er ikke bare er et vern for den enkelte, men også et uttrykk for europeiske verdier og strategiske interesser. Kravene til dataminimering, rutiner og informasjonssikkerhet styrker den digitale beredskapen i norske virksomheter så vel som samfunnet som helhet. Godt personvern i norske virksomheter styrker samfunnets evne til å stå imot press, påvirkning og digitale angrep.</p>



<h2 class="wp-block-heading">Personvern som kollektivt vern</h2>



<p>I dagens sikkerhetspolitiske situasjon må personvern forstås som en integrert del av Norges totalberedskap. Skal Norge lykkes i Totalforsvarsåret 2026, må personvern, regulering og digital infrastruktur ses i sammenheng – som en del av vårt kollektive vern.  Vi mener det er på tide å få på plass en helhetlig nasjonal plan for digital suverenitet som forener og balanserer innovasjon, sikkerhet og personvern.</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2026/01/28/personvern-er-beredskap-i-en-urolig-verden/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Kameraovervåking av hus og hytte. Noen enkle råd fra Datatilsynet</title>
    <link>https://www.personvernbloggen.no/2025/09/23/kameraovervaking-av-hus-og-hytte-noen-enkle-rad-fra-datatilsynet/</link>
    <comments>https://www.personvernbloggen.no/2025/09/23/kameraovervaking-av-hus-og-hytte-noen-enkle-rad-fra-datatilsynet/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2018/09/Janne-Stang-Dahl_avatar_1535984869-200x200.jpg</avatar>
    <pubDate>Tue, 23 Sep 2025 14:33:46 +0000</pubDate>
    <dc:creator><![CDATA[Janne Stang Dahl]]></dc:creator>
    		<category><![CDATA[Teknologi]]></category>
		<category><![CDATA[kameraovervåking]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=4083</guid>
    <description><![CDATA[Kameraovervåking er et tema mange er opptatt av – ikke minst nå på høsten når mange vil ut i høstfjellet, men oppdager kamera i hyttefeltet. Vi får jevnlig mange henvendelser fra personer som er usikre på reglene for egen bruk av kamera eller som opplever å bli urettmessig overvåket. Det er blitt svært enkelt å [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p>Kameraovervåking er et tema mange er opptatt av – ikke minst nå på høsten når mange vil ut i høstfjellet, men oppdager kamera i hyttefeltet. </p>



<p>Vi får jevnlig mange henvendelser fra personer som er usikre på reglene for egen bruk av kamera eller som opplever å bli urettmessig overvåket. Det er blitt svært enkelt å skaffe kamera i butikker og på nettet, men det er noen regler du bør huske på hvis du skal sette opp kamera utenfor eget hus eller hytte. Vi gir deg derfor her noen gode råd på veien. </p>



<p><em>(Denne teksten tar blant annet utgangspunkt i Aftenpostens sak «<a href="https://www.aftenposten.no/bolig/i/5E1xz1/oekt-bruk-av-overvaakingskameraer-skaper-nabokonflikter-dette-maa-du-vite" target="_blank" rel="noreferrer noopener">Økt bruk av overvåkingskameraer skaper nabokonflikter. Dette må du vite</a>.» Saken er bak betalingsmur. )</em></p>



<p>Vi starter med det viktigste du må huske på hvis du vurderer å montere overvåkningskamera på din egen eiendom:</p>



<ol class="wp-block-list">
<li>Pass på å ikke fange inn annet enn egen eiendom</li>



<li>Ikke del opptak på internett uten samtykke</li>



<li>Vis hensyn selv om du har rett til å bruke kamera</li>
</ol>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>Hvis du passer på å følge disse punktene, har du allerede kommet langt i de aller viktigste vurderingene som du må gjøre når du setter opp kameraet. </p>
</blockquote>



<p>Vi anbefaler også at du ser gjennom <a href="https://www.datatilsynet.no/personvern-pa-ulike-omrader/overvaking-og-sporing/kameraovervaking/hvor-er-kameraovervaking-lov/" target="_blank" rel="noreferrer noopener">kameraveiledningen</a> vår som setter deg nøye inn i regelverket. Den gir deg også eksempler på hva som er greit og ikke greit. Selv om veiledningen først og fremst er rettet mot virksomheter, finner du også råd for deg som er privatperson.</p>



<h2 class="wp-block-heading">Hva med filming, skilting og private opptak?</h2>



<p>Det er mye usikkerhet rundt regelverket på dette området. I fjor mottok veiledningstjenesten vår 326 henvendelser om kameraovervåking av private boliger og hytter, og vi ser at vi nærmer oss samme antall i år. Til nå i år har vi dessuten fått inn 28 klager om temaet, og vi har registrert rundt 180 tips fra enkeltpersoner om kameraovervåking på privat eiendom. Her er noen av spørsmålene som går igjen i henvendelsene til oss:</p>



<p><strong>Hva kan jeg filme lovlig?</strong><br>Du kan sette opp kamera på egen eiendom slik som ved hus, hage og hytte. Det er da viktig å være oppmerksom på at du ikke kan filme mer enn egen eiendom slik som naboens tomt, offentlig vei, inngangen til leietagere eller andre steder på eiendommen der andre har bruksrett.<br><br><strong>Må jeg skilte og informere når jeg har privat kamera, og hvem skal varsles?</strong><br>Som privatperson har du ikke plikt til å sette opp skilt hvis du bare overvåker utenfor eget hus eller hytte. Her bør du imidlertid tenke deg godt om. Det kan være lurt å informere godt for å unngå misforståelser, og for å vise hensyn overfor gjester og andre besøkende. Alle har rett på privatliv, og personvern er en menneskerett som gjelder både for barn og voksne.&nbsp;</p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>Skjult overvåking inne i privat hjem kan imidlertid rammes av bestemmelser i straffeloven og vil vanligvis ikke være tillatt, så her er informasjon viktig.</p>
</blockquote>



<p><strong>Er det noen forskjell på hvilke regler som gjelder hvis jeg setter opp et privat kamera selv, enn hvis jeg har kamera gjennom et alarmselskap?&nbsp;&nbsp;</strong><br>Du har ansvar for å holde deg innenfor reglene, altså kun å overvåke egen tomt, selv om du bruker et alarmselskap. I tillegg må alarmeselskapet følge egne regler for lagring og tilgang til opptak.</p>



<p><strong>Hvor lenge kan jeg lagre opptak?</strong><br>Hvis du overvåker eget hus eller hytte, gjelder som hovedregel ikke personvernregelverket. Det betyr blant annet at du ikke har plikt til å slette opptakene.</p>



<p><strong>Er det lov å dele film i sosiale medier eller nabolagsgrupper?</strong><br>Det er som hovedregel ikke lov å dele kameraopptak av andre. Dersom du skal dele bilder, film eller lydopptak av en annen person, må du be om samtykke fra de som er på opptakene før de publiseres.&nbsp;Du kan lese mer om <a href="https://www.datatilsynet.no/personvern-pa-ulike-omrader/internett-og-apper/bilder-pa-nett/">deling av bilder og samtykke på nettsidene våre</a>.</p>



<p><strong>Hva skjer hvis du bryter personvernreglene – hvilke reaksjoner risikerer du?</strong><br>Datatilsynet har ulike muligheter for sanksjoner, for eksempel vedtak om brudd på loven, og pålegg om stans. Dersom overvåkingen er skjult eller på andre måter krenker privatlivets fred, kan den også anmeldes til politiet som har egne sanksjonsmuligheter.<br><br><strong>Hva gjør du hvis du opplever å bli ulovlig overvåket av naboen eller på fellesarealer?</strong><br>Vi i Datatilsynet er opptatt av at du skal si klart ifra hvis du opplever å bli urettmessig overvåket. Snakk med den som har satt opp kameraet først. Det er viktig å si ifra til de som eventuelt filmer og publiserer slik at det fort kan ryddes opp i.&nbsp; Alle kan dessuten sende inn tips eller klage til Datatilsynet. Saker kan også tas til Konfliktrådet eller Politiet.</p>



<p>Du finner informasjon om <a href="https://www.datatilsynet.no/personvern-pa-ulike-omrader/overvaking-og-sporing/kameraovervaking/hva-gjore-jeg-hvis-jeg-opplever-ulovlig-kameraovervaking/">hva du kan gjøre hvis du opplever ulovlig kameraovervåking på nettsidene våre</a>. Alle som trenger råd er, også velkommen til å ta kontakt <a href="https://www.datatilsynet.no/om-datatilsynet/kontakt-oss/veiledningstjenesten/">med veiledningstjenesten vår</a> som holder åpent alle hverdager. &nbsp;</p>



<h2 class="wp-block-heading">Og til slutt litt om droner…</h2>



<p>Nå i disse dronetider får vi også mange spørsmål fra både presse og andre. Når du flyr drone som privatperson og på hobbybasis, må du huske på at din aktivitet potensielt kan virke invaderende for andre mennesker og at du har plikt til å ivareta personvernet deres. Det er altså&nbsp;ikke forbudt å fly drone som lek eller hobby, men det er viktig at du alltid tar hensyn til personvern når du flyr.</p>



<p>Du bør aldri ta bilder, video eller lydopptak av andre mennesker i deres hjem eller i deres hage uten tillatelse fra de som blir avbildet. Du som flyr dronen må altså ta hensyn til at andre kan føle seg overvåket, og du bør være åpen og gi informasjon til de som spør. Les mer i veiledningen vår: <a href="https://www.datatilsynet.no/personvern-pa-ulike-omrader/overvaking-og-sporing/droner---hva-er-lov/privat-bruk-av-droner/">Droner &#8211; hva er lov?</a></p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2025/09/23/kameraovervaking-av-hus-og-hytte-noen-enkle-rad-fra-datatilsynet/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Chatbot på rømmen</title>
    <link>https://www.personvernbloggen.no/2025/05/30/chatbot-pa-rommen/</link>
    <comments>https://www.personvernbloggen.no/2025/05/30/chatbot-pa-rommen/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2022/10/cropped-datatilsynet_jan_henrik_181122134718-kvadr-200x200.jpg</avatar>
    <pubDate>Fri, 30 May 2025 12:34:28 +0000</pubDate>
    <dc:creator><![CDATA[Jan Henrik Mjønes Nielsen]]></dc:creator>
    		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[Lovgivning]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=4070</guid>
    <description><![CDATA[VG har lansert chatboten heiVG og det har allerede blitt oppdaget at den gir uriktige opplysninger om levende personer. Hvem har ansvaret når chatboten gjør feil?]]></description>
        <content:encoded><![CDATA[
<p><em><a href="https://www.m24.no/datatilsynet-debatt-heivg/chatbot-pa-rommen/826428">Dette innlegget stod først «på trykk» i Medier24 30. mai 2025.</a></em></p>



<p><a href="https://www.m24.no/chatbot-heivg-kunstig-intelligens/vg-lanserer-ny-chatbot/818544" target="_blank" rel="noreferrer noopener">VG har lansert chatboten heiVG</a> og det har allerede blitt oppdaget at <a href="https://www.kode24.no/artikkel/vgs-nye-chatbot-gir-feil-informasjon-far-kritikk/83045445" target="_blank" rel="noreferrer noopener">den gir uriktige opplysninger om levende personer</a>. Hvem har ansvaret når chatboten gjør feil?</p>



<p>Feilinformasjon er utvilsomt et samfunnsproblem. Ikke bare gir det folk feil fakta, men det kan også bidra til å svekke tilliten til redaktørstyrte medier hvis de formidler den type informasjon.</p>



<p>Redaktørstyrte medier er én av vår siste, og kanskje viktigste, skanser mot flommen av oppspinn. Hvordan blir det da når VG lanserer en upålitelig chatbot?</p>



<p>Under lanseringen uttalte VG at «Når vi ser tilbake på denne lanseringen om ett eller to år, tror jeg vi potensielt kan omtale den som startskuddet på noe helt nytt for måten journalistikk konsumeres og formidles på.»</p>



<p>En ny måte journalistikk konsumeres og formidles på? Da må det vel være underlagt redaktøransvaret og medieansvarsloven?</p>



<p>Ikke ifølge VG. På nettsiden opplyser de at «heiVG er en ikke-redaksjonell tjeneste og feil kan forekomme.»</p>



<p>Feil kan forekomme? Eksempelet som kom frem i media var uriktig omtale av om en person som hadde begått et lovbrudd. <a href="https://www.nrk.no/norge/nordmann-klager-chatgpt-til-datatilsynet-1.17348958" target="_blank" rel="noreferrer noopener">Datatilsynet behandler allerede i dag en klagesak på en annen tjeneste</a>, der en person feilaktig ble beskyldt for å ha drept sine egne barn.</p>



<p>Har det noe å si? Ja. For hvis tjenesten er ikke-redaksjonell så er den underlagt personvernlovgivning hvor et av hovedprinsippene er at personopplysninger skal være korrekte. For selv uriktig informasjon om en person kan være personopplysninger.</p>



<p>En setning på nettsiden om at feil kan forekomme kan ikke unnta en hel tjeneste fra et lovverk som skal sikre den enkeltes beskyttelse. Faren er at vi slutter å bry oss om sannheten hvis vi stadig utsettes for løgn.</p>



<p>Så VG, hva blir det til? Redaktøransvar eller underlagt et regelverk som skal sikre korrekt informasjon?</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2025/05/30/chatbot-pa-rommen/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Digitaliseringsparadokset</title>
    <link>https://www.personvernbloggen.no/2025/05/21/digitaliseringsparadokset/</link>
    <comments>https://www.personvernbloggen.no/2025/05/21/digitaliseringsparadokset/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2022/10/cropped-20220805_datatilsynet_line_coll_021-kvadr-200x200.jpg</avatar>
    <pubDate>Wed, 21 May 2025 09:13:32 +0000</pubDate>
    <dc:creator><![CDATA[Line Coll]]></dc:creator>
    		<category><![CDATA[Digital masseovervåking]]></category>
		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[Digitalt grenseforsvar]]></category>
		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[Politi og justis]]></category>
		<category><![CDATA[Sosiale medier]]></category>
		<category><![CDATA[Teknologi]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=4062</guid>
    <description><![CDATA[I prosessen med å bli verdens mest digitaliserte land risikerer vi å få verdens mest overvåkede innbyggere. Innlegget er skrevet av direktør Line Coll og juridisk spesialrådgiver Jan Henrik Nielsen. ]]></description>
        <content:encoded><![CDATA[
<p><em>Innlegget er skrevet av Datatilsynets direktør Line Coll og juridisk spesialrådgiver Jan Henrik Mjønes Nielsen. Det sto først «på trykk» på <a href="https://www.altinget.no/artikkel/digitalisering-truer-personvernet" target="_blank" rel="noreferrer noopener">altinget.no 14. mai 2025.</a></em></p>



<p><strong>I prosessen med å bli verdens mest digitaliserte land risikerer vi å få verdens mest overvåkede innbyggere.</strong></p>



<p>I den norske debatten om personvern vises det gjerne til USA eller Kina når det er behov for eksempler på ukontrollert og inngripende overvåking. Nå holder det å se til våre naboland &nbsp;for å finne disse eksemplene.</p>



<p>Hva skjer når du digitaliserer en velferdsstat og åpner døren på gløtt for de statlige etterretningstjenestene?</p>



<h2 class="wp-block-heading">Svensken og dansken</h2>



<p>Mye av grunnen til at velferdsstater som Norge, Sverige og Danmark fungerer godt, er at de har tilgang til store mengder digitaliserte data. Norge har mange statlige registre blant annet knyttet til helse, utdanning, arbeid, inntekt, velferdsytelser, straff, skatt og eiendom. Dette gjør det lettere å levere gode tjenester til innbyggerne. Men det har også en risiko. I en gjennomdigitalisert stat ligger potensialet for masseovervåking.</p>



<p>I Danmark pågår det nå en <a href="https://politiken.dk/danmark/art10349346/PET-skal-have-lov-til-at-masseoverv%C3%A5ge-danskere-uden-mistanke">omfattende diskusjon om et nytt lovforslag.</a> Forslaget gir etterretningstjenesten PET lov til å lage en analyseplattform der de kan samle data fra offentlige registre. Det kan for eksempel være informasjon om sykehusbesøk, kontakt med psykiatrien og sosialtjenester. De skal også kunne hente inn data fra sosiale medier – som hva folk skriver, liker og deler – og følge med på hvordan folk beveger seg på internett og i virkeligheten.</p>



<p>Ved hjelp av kunstig intelligens skal PET finne mønstre og peke på mistenkelig atferd. Mange er bekymret for at dette gjør at alle blir behandlet som potensielle mistenkte. Det kan føre til frykt for å ytre seg, og påvirke folks forhold og tilgang til velferdstjenester. Koplingen mellom registre, kunstig intelligens og overvåking er noe Danmark også tidligere har blitt kritisert for, blant annet i en <a href="https://www.amnesty.org/en/latest/news/2024/11/denmark-ai-powered-welfare-system-fuels-mass-surveillance-and-risks-discriminating-against-marginalized-groups-report/">rapport fra Amnesty</a>.</p>



<p>I Sverige er det også snakk om mer overvåkning. Der ønsker myndighetene å gi sikkerhetstjenestene <a href="https://www.svt.se/nyheter/inrikes/it-experten-man-vill-komma-at-kriminella-men-laglydiga-straffas" target="_blank" rel="noreferrer noopener">økt mulighet til å overvåke internettrafikk</a> og pålegge meldingsapper å opprette en bakdør for å oppheve kryptering. &laquo;Nasjonal sikkerhetslagring&raquo; innebærer omfattende innsamling av borgernes datatrafikk ved behov. Målet er å bekjempe digital kriminalitet, men innsamlingen vil omfatte vanlige, lovlydige borgere.</p>



<p>Det er fristende å bruke informasjon som allerede er samlet inn til nye formål. Vi ser denne tendensen også i Norge.</p>



<h2 class="wp-block-heading">Nye holdninger til bruk og deling av data setter personvernet under press i Norge</h2>



<p>Fra fødsels- til dødsmelding, registreres norske borgere i utallige registre og vårt livsløp dokumenteres fra fosterstadiet på helsestasjonen, videre i barnehagen, skolen, helsetjenesten, arbeidslivet og NAV. Vi gir fra oss informasjon til staten som nødvendig ledd i å motta diverse tjenester og velferdsgoder. Opprinnelig har informasjonen vært organisert som små «øyer» i offentlig sektor, og kun vært brukt til det formålet som den ble samlet inn for. Men endringer har skjedd. I vår digitaliseringsiver har vi tilpasset oss en ny måte å forholde oss til data på: den har ofte stor verdi utenfor det opprinnelige formålet. Alle offentlige data anses mer og mer som et statlig felleseie.</p>



<p>Lisa Reutter, som er ekspert på datadrevet offentlig sektor, satte ord på det optimistiske forholdet vårt til offentlige data <a href="https://www.datatilsynet.no/regelverk-og-verktoy/personvernpodden/ingenting-a-skjule/3-ingenting-a-skjule-registerovervaking/" target="_blank" rel="noreferrer noopener">i en episode av Datatilsynets podkast</a>: «Vi holder data atskilt slik at opplysninger samlet inn i én kontekst ikke skal ha noe å si i en annen. Men ideen om data som en muliggjørende teknologi, bidrar til å flytte grensene for hva vi aksepterer og synes er greit».</p>



<h2 class="wp-block-heading">Sammenstilling av data skaper uklarheter</h2>



<p><a href="https://www.altinget.no/emne/1297">På Altinget har det i den siste tiden pågått en debatt om de såkalte individdataregistrene</a>. De forslåtte registrene skal samle mye informasjon om barn i skole og barnehage – som fravær, prøveresultater, spesialundervisning, språkopplæring, foreldrenes bakgrunn og økonomisk situasjon. Disse opplysningene skal igjen kobles med data om foreldre og barnets videre liv, som utdanning, jobb, inntekt og helse, samt foreldrenes livsløp. Forskningen på registrene skal benyttes som kunnskapsgrunnlag for å skape en bedre skole. Datatilsynet har advart mot at store og sammenkoblede registre innebærer en endret maktbalanse mellom myndighetene og enkeltindividet, noe som kan påvirke tilliten til statlige myndigheter negativt.</p>



<p><a href="https://www.datatilsynet.no/regelverk-og-verktoy/lover-og-regler/avgjorelser-fra-datatilsynet/2023/forbud-mot-behandling-av-personopplysninger-for-ssb/" target="_blank" rel="noreferrer noopener">Forbudet vårt mot Statistisk sentralbyrå (SSB)</a> sin planlagte innsamling av data fra den norske befolkningens dagligvarekjøp i 2023 var et eksempel på det samme. Ideen om å koble bongdata opp mot sosioøkonomiske data slik som husholdningstype, inntekt og utdanningsnivå, var noe vi mente var et uforholdsmessig inngrep i norske borgeres privatliv.</p>



<p>Dette kommer i tillegg til utvidelsene av justismyndighetenes overvåking av borgerne de siste årene, med blant annet lagring av IP-adresser, passasjeropplysninger, Etterretningstjenestens overvåking av internettrafikk og senest PSTs hjemler til å overvåke åpne kilder. Når store deler av kommunikasjonen og kunnskapsinnhentingen vår skjer på digitale plattformer, vil summen av data som samles inn av offentlige og private aktører medføre et stort overvåkingspotensial. Ekstra bekymringsfullt er det når <a href="https://eos-utvalget.no/wp-content/uploads/2023/06/EOS-utvalgets-arsmelding-for-2022.pdf">etterretningstjenester kjøper metadata</a> fra apper på det uregulerte markedet, og når Kripos <a href="https://juristen.no/nyheter/2023/02/arkivverket-hjelper-politiet-med-slektsgransking">vil bruke private slektsdatabaser</a> i etterforskning.</p>



<p>Alt dette bidrar til å skape uklarhet som forsterker de negative effektene av overvåking og kan svekke personvernet ved at legges press på å utforme tjenester med svakere beskyttelse. Alt dette ble på dramatisk vis satt på spissen i debatten og snuoperasjonen knyttet til sivilbeskyttelsesloven. En situasjon hvor personvernlovgivningen settes til side kan få alvorlige konsekvenser for samfunnet. Det å innføre økte kontrolltiltak på for eksempel internett eller ansiktsgjenkjenning i det offentlige rom vil innebære en svekkelse av sivilsamfunnet. Kontrollmekanismer blir også satt under press i krisesituasjoner. Det er ingen tvil om at Datatilsynet opplevde det svært krevende å si nei til Smittestopp-appen under Covid.</p>



<h2 class="wp-block-heading">Overvåkingspotensialet i en gjennomdigitalisert stat</h2>



<p>At hvert enkelt tiltak kan aksepteres som et nødvendig inngrep i personvernet, kan isolert sett fremstå tilforlatelig. Advokatforeningen har <a href="https://www.dagbladet.no/meninger/jeg-vil-svekke-rettsstaten-gi-meg-en-hjemmel/82674856" target="_blank" rel="noreferrer noopener">i en kronikk</a> påpekt dilemmaet under overskriften «Jeg vil svekke rettsstaten &#8211; gi meg en hjemmel!». Det at nye tiltak hjemles, begrenser ikke nødvendigvis skadevirkningene av selve inngrepet. Mulighetene og hjemlene for sammenkobling av ulike offentlige registre eller private datasett gjør uforutsigbarheten for den enkelte desto større.</p>



<p>Det er godt dokumentert at økt overvåkingstrykk påvirker vår ytre frihet, hvordan vi lever, kommuniserer og bruker tjenester. Enda mer bekymringsfullt er at den også truer vår indre frihet – mange begynner å føle seg overvåket hele tiden. Det er ikke uten grunn at den nye KI-forordningen forbyr bruk av kunstig intelligens som manipulerer folk til å gjøre ting de ellers ikke ville gjort.</p>



<p>Datatilsynet vil advare mot et samfunn hvor all offentlig informasjon og private data samles og gjøres tilgjengelig for nye formål og bruksområder. Et demokrati kjennetegnes ved at det er borgerne som kontrollerer staten, ikke motsatt. Norge, Sverige og Danmark ligger fortsatt <a href="https://www.eiu.com/n/democracy-index-2024/" target="_blank" rel="noreferrer noopener">på topp på internasjonale demokratiindekser</a>, men vi kan ikke ta slike målinger for gitt. Det fremstår som et paradoks at suksessen til de skandinaviske velferdsstatene – å bruke store mengder data til å levere gode velferdstjenester – kan gjøre oss ekstra sårbare.</p>



<p>Det kan være fristende å se til våre naboland når vi utformer politikk som skal løse fremtidens utfordringer. Men uansett om målet er velferd, forskning eller sikkerhet, er det viktig at politikerne er bevisst det enorme overvåkingspotensialet som ligger i en heldigital og gjennomregistrert stat.</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2025/05/21/digitaliseringsparadokset/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Seks sentrale spørsmål om kunstig intelligens (Og svarene fra sandkassen)</title>
    <link>https://www.personvernbloggen.no/2025/04/01/seks-sentrale-sporsmal-om-kunstig-intelligens-og-svarene-fra-sandkassen/</link>
    <comments>https://www.personvernbloggen.no/2025/04/01/seks-sentrale-sporsmal-om-kunstig-intelligens-og-svarene-fra-sandkassen/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2020/08/Profilbilde_Magnus-scaled-e1597911334538-200x200.jpg</avatar>
    <pubDate>Tue, 01 Apr 2025 07:08:40 +0000</pubDate>
    <dc:creator><![CDATA[Magnus Mühlbradt]]></dc:creator>
    		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[Ikke kategorisert]]></category>
		<category><![CDATA[Innebygd personvern]]></category>
		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[Teknologi]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[digitalisering]]></category>
		<category><![CDATA[innovasjon]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[personvern]]></category>
		<category><![CDATA[regulatorisk sandkasse]]></category>
		<category><![CDATA[sandkasse]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=4020</guid>
    <description><![CDATA[Siden oppstarten i 2021 har Datatilsynets regulatoriske sandkasse hjulpet enkeltaktører med å følge regelverket og utvikle KI-løsninger med godt personvern. Fremover vil vi ha et bredere fokus på innovasjon og digitalisering – både med og uten kunstig intelligens. Men la oss først se nærmere på seks KI-relaterte spørsmål vi ofte har møtt fra søkere og [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p>Siden oppstarten i 2021 har Datatilsynets regulatoriske sandkasse hjulpet enkeltaktører med å følge regelverket og utvikle KI-løsninger med godt personvern. Fremover vil vi ha et bredere fokus på innovasjon og digitalisering – både med og uten kunstig intelligens. Men la oss først se nærmere på seks KI-relaterte spørsmål vi ofte har møtt fra søkere og deltakere i sandkassen.</p>



<h2 class="wp-block-heading">1. <strong>Kan vi bruke personopplysninger i KI-løsningen?</strong></h2>



<p>Et spørsmål som går igjen i Datatilsynets sandkasse er: Har vi lov til å bruke personopplysninger i løsningen vår? </p>



<p>Svaret er som regel: Det kommer an på.</p>



<p>For at behandlingen av personopplysninger skal være lovlig, må virksomheten ha et rettslig grunnlag, også ved utvikling av kunstig intelligens. Dette er i tråd med <a href="https://lovdata.no/dokument/NL/lov/2018-06-15-38/KAPITTEL_gdpr-2#gdpr/a6">personvernforordningen artikkel seks</a>.</p>



<p>Kunstig intelligens omfatter ofte flere faser: utvikling, anvendelse (bruken av selve løsningen) og etterlæring. Disse fasene kan overlappe, noe som gjør det krevende å avgjøre når én fase slutter og en annen begynner. Og selv om virksomheten har rettslig grunnlag for én fase, betyr det ikke nødvendigvis at dette grunnlaget dekker andre faser.</p>



<p>Vi møtte på denne problemstillingen sammen med NAV – i et av de første sandkasseprosjektene våre. Her kom vi frem til, at NAV hadde hjemmel i folketrygdloven til å behandle brukernes opplysninger for å yte tjenester. Loven er derimot ikke tydelig  på om de kan bruke historiske data om sykemeldinger <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/nav-sluttrapport/rettslig-grunnlag/">til trening av algoritmene</a>.</p>



<p>En annen viktig læring, er at det er viktig å identifisere hvilke data som faktisk inneholder personopplysninger. I sandkasseprosjektet med Juridisk ABC kom vi frem til at de kunne nytte lovtekster, forskrifter, forarbeider og lignende juridiske kilder i <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/juridisk-abc-sluttrapport-jussboten-lawai/">den generative KI-løsningen for arbeidsrett</a>. Det var ikke krav om rettslig grunnlag ganske enkelt fordi kildene ikke inneholdt personopplysninger. Derimot inneholdt dommer og kjennelser ofte omfattende mengder personopplysninger – som kan være svært sensitive for de som er involvert. Derfor måtte Juridisk ABC ha et rettslig grunnlag for å inkludere disse i KI-løsningen.</p>



<h2 class="wp-block-heading">2. <strong>Er anonymisering løsningen?</strong></h2>



<p>Flere av virksomhetene i sandkassen har ønsket å anonymisere personopplysninger. Anonymiserte data er jo ikke omfattet av personvernregelverket, så det <em>kan</em> forenkle mye. Men – det har i praksis vist seg krevende å få til faktisk anonymisering.</p>



<p>Til tross for betydelige fremskritt innen anonymiseringsteknologi, som skal hindre identifisering av enkeltpersoner i datasett, har det parallelt vært en utvikling av analyseteknologi som øker risikoen for re-identifisering. Mer offentliggjøring av offentlige data har også gjort det mulig å sammenstille flere datapunkter fra ulike kilder, hvilket øker utfordringen.</p>



<p>I sandkassen har vi sett flere eksempler på bruk av ny teknologi for å redusere risikoen for re-identifisering. Finansvirksomheten <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/finterai-sluttrapport/">Finterai ville bruke føderert læring</a> for å kunne dele innsikt fra transaksjonshistorikk mellom banker – uten å eksponere opplysninger som kunne knyttes til enkeltpersoner.</p>



<p>Teknologiselskapet <a href="https://www.datatilsynet.no/en/regulations-and-tools/sandbox-for-artificial-intelligence/reports/salt-mobai-et-al.-exit-report-securing-digital-identities/">Mobai hadde en lignende tilnærming</a>, men benyttet homomorfisk kryptering for å gjøre re-identifisering vanskeligere. Ved hjelp av denne teknologien kunne aktører analysere krypterte personopplysninger uten at de måtte dekrypteres. Dette skjer ved at de bevarer de egenskapene ved personopplysningene som de ønsker å bruke, og fjerner resten. </p>



<p><a href="https://www.datatilsynet.no/personvern-pa-ulike-omrader/internett-og-apper/personvernfremmende-teknologi/">Personvernfremmende teknologier</a>, som føderert læring og homomorfisk kryptering, markerer viktige skritt i riktig retning for å få til godt personvern i praksis. De bidrar ikke bare til å redusere risikoen for re-identifisering av personer som er i et KI-datasett. De gir også virksomheter bedre muligheter til å balansere innovasjon med personvern og informasjonssikkerhet.</p>



<h2 class="wp-block-heading">3. <strong>Kan kunstig intelligens bidra til dataminimering?</strong></h2>



<p>Prinsippet om dataminimering kan ved første øyekast virke som en motpol til kunstig intelligens. Kunstig intelligens trenger store mengder personopplysninger for å lære. Prinsippet om dataminimering slår fast at du skal samle inn minst mulig personopplysninger – kun det som er nødvendig for å oppnå formålet.</p>



<p>I flere sandkasseprosjekter har vi utforsket dette tilsynelatende dilemmaet. For eksempel har vi i sammen med <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/doorkeeper-sluttrapport-intelligent-kameraovervaking-med-personvern-i-fokus/">sikkerhetsselskapet Doorkeeper</a> sett på hvordan KI-baserte overvåkingskameraer kan minimere innsamlingen av personopplysninger. Blant annet kan de sladde mennesker i videostrømmen eller aktivere løpende opptak kun når en spesifikk hendelse utløser det. Vi har også diskutert situasjoner man <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/finterai-sluttrapport/dataminimering/">ikke vet hvilke opplysninger som er nødvendige før de har analysert data over tid.</a> Er det brudd på dataminimeringsprinsippet, om det i ettertid viser seg at personopplysninger har blitt behandlet uten å være relevante? Vi har utforsket problemstillingen i sandkassen, men som i mange andre tilfeller vil svaret avhenge av den konkrete konteksten.</p>



<h2 class="wp-block-heading">4. <strong>Hvordan skaper algoritmer urettferdighet?</strong></h2>



<p>Helsesektoren har vært godt representert i sandkassen, blant annet gjennom prosjekter med <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/helse-bergen-sluttrapport-kunstig-intelligens-i-oppfolging-av-sarbare-pasienter/hvordan-sikre-at-algoritmen-gir-et-rettferdig-resultat/">Helse Bergen</a> og <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/ahus-sluttrapport-ekg-ai/tiltak-som-kan-redusere-algoritmeskjevhet/">Ahus</a>. Disse har fokusert på KI-løsninger som skulle forutsi hjertesvikt og peke ut pasienter med fare for rask reinnleggelse på sykehus.</p>



<p>Kunstig intelligens i helsesektoren reiser viktige spørsmål om algoritmeskjevheter, som kan føre til at pasientene blir diskriminert. I begge prosjektene var KI-verktøyene ment som beslutningsstøtte og ikke for å gjennomføre automatiserte avgjørelser uten menneskelig innblanding. Likevel, det er en utbredt forståelse for at kunstig intelligens kan videreføre og forsterke eksisterende diskriminering i samfunnet. I tilfeller hvor algoritmene kommer til feil vurdering av folks helse, kan dette ha alvorlige konsekvenser.</p>



<p>I Ahus-prosjektet så de at dårlig datakvalitet og feil i datagrunnlaget potensielt kunne resultere i uriktige og diskriminerende resultater. Og de så på forskjellige metoder for å avverge dette.</p>



<p>For virksomheter som vil avverge algoritmeskapt diskriminering, har Likestillings- og diskrimineringsombudet <a href="https://ldo.no/aktuelt/innebygd-diskrimineringsvern/">en nyttig veileder om innebygd diskrimineringsvern</a>. Den er rettet mot de som er ansvarlige for utvikling, anskaffelse og bruk av ML-systemer, og skal gjøre dem kjent med diskrimineringsregelverket, slik at de kan forebygge ved å vurdere diskrimineringsrisikoen teknologien medfører.</p>



<h2 class="wp-block-heading">5. <strong>Hvem har ansvaret: utvikler eller kunde?</strong></h2>



<p>I flere sandkasseprosjekter har vi diskutert ansvarsforhold knyttet til behandlingen av personopplysninger i KI-løsninger: Hvem er behandlingsansvarlig? Hvem er databehandler? Og bør utviklere ta et større ansvar for å hjelpe virksomheter med å etterleve personvernregelverket?</p>



<p>En leverandør har ikke nødvendigvis et direkte ansvar for at kjøperne av produktet følger personvernregelverket, når løsningen blir brukt til å samle inn og behandle personopplysninger. Likevel bør de levere løsninger som legger til rette for at kunden, som ofte er å regne som behandlingsansvarlig, kan overholde regelverket i praksis.</p>



<p>I noen tilfeller kan det også være hensiktsmessig at utviklere eller leverandører tar på seg mer ansvar, for å sikre viktige personvernhensyn. Dette kan for eksempel være knyttet til tilgangskontroll eller informasjonssikkerhet.</p>



<p>Et eksempel på at utvikleren tar mer ansvar for å forbedre personvernet, ser vi i <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/secure-practice---sluttrapport/">prosjektet med Secure Practice</a>. Denne teknologivirksomheten hadde som mål å gi persontilpasset opplæring i cybersikkerhet. Sikkerhetsopplæringen var ment for ansatte i virksomheter, som ville kjøpe tjenesten fra Secure Practice. I tillegg ville ledelsen i disse virksomhetene få statistikk over ansattes kunnskaps- og interessenivå innenfor informasjonssikkerhet. For å kunne levere tjenesten uten at informasjon om ansatte kan misbrukes av ledelsen, drøftet deltakerne i prosjektet at det kunne være nødvendig å holde tilbake personopplysninger fra kunden. For at dette skulle være mulig, vurderte de en løsning med felles behandlingsansvar. Secure Practice og kunden vil da i fellesskap fastsette formålene og midlene for behandlingen av arbeidstakers personopplysninger.</p>



<p>Dette viser hvor viktig det er å avklare og plassere ansvarsforhold for å utvikle løsninger med godt personvern. Klare ansvarsforhold bidrar ikke bare til bedre etterlevelse av regelverket. Det kan også bidra til økt tillit mellom leverandører og kunder.</p>



<h2 class="wp-block-heading">6. <strong>Hvorfor maser vi så fælt om at personvernet må tidlig på plass?</strong></h2>



<p>Har du hørt om innebygd personvern? Det er et prinsipp i personvernregelverket om at tekniske systemer og løsninger blir utviklet slik at personvernet blir ivaretatt. Poenget er å sikre at personvernet i systemet er gjennomtenkt, heller enn å forsøksvis bli klattet på til slutt. I den nye digitaliseringsstrategien slår regjeringen fast at alle relevante IT-løsninger i offentlig sektor skal ha innebygd personvern. Men hva betyr det i praksis?</p>



<p>Mange av virksomhetene har kommet til sandkassen med KI-prosjekter i konseptfasen. Erfaringen fra disse prosjektene er at tidlige veivalg har stor betydning for hvor lett eller vanskelig det blir å etterleve kravene i personvernregelverket.&nbsp;</p>



<p>Flere eksempler fra sandkassen illustrer dette, spesielt når det gjelder lagring av personopplysninger for KI-formål. For eksempel kan lagring av store mengder personopplysninger sentralt på en felles server, gjøre dataene sårbare og øke angrepsflatene. Da må strenge organisatoriske og tekniske tiltak til for å sikre opplysningene, ettersom lagringen innebærer en større risiko for de registrerte. På en annen side kan desentralisert lagring – for eksempel ved kantprosessering (edge computing) – i visse tilfeller redusere personvernrisikoen. Det forenkler virksomhetens arbeid med informasjonssikkerhet.</p>



<p>Ett eksempel på desentralisert lagring er <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/doorkeeper-sluttrapport-intelligent-kameraovervaking-med-personvern-i-fokus/">Doorkeepers løsning</a>, der videostrømmen fra et overvåkingskamera ble sladdet direkte i kamerahuset før opptakene ble sendt videre til et brukergrensnitt. Et annet eksempel var <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/ruter-sluttrapport-i-rute-med-kunstig-intelligens/hvilket-ansvar-har-ruter-ved-lokal-lagring-i-forberedelsesfasen/">et prosjekt med Ruter</a>, som ønsket lokal lagring på brukernes egne mobiltelefoner i forberedelsesfasen til å utvikle KI. </p>



<p>Hvor data skal lagres, er neppe det første du tenker på etter å ha fått en ide om en genial ide. Å tenke på det tidlig nok kan riktignok spare deg for mye frustrasjon, og brukerne for risiko. </p>



<p>Dette er særlig relevant for virksomheter med begrensede ressurser – å utvikle løsninger som fra starten ikke krever omfattende tiltak for å oppfylle personvernregelverket. Å tilpasse ferdigutviklede løsninger i etterkant kan være både tidkrevende og kostbart.</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2025/04/01/seks-sentrale-sporsmal-om-kunstig-intelligens-og-svarene-fra-sandkassen/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Hva mener folk om kunstig intelligens og personvern?</title>
    <link>https://www.personvernbloggen.no/2025/02/03/hva-mener-folk-om-kunstig-intelligens-og-personvern/</link>
    <comments>https://www.personvernbloggen.no/2025/02/03/hva-mener-folk-om-kunstig-intelligens-og-personvern/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2020/08/Profilbilde_Magnus-scaled-e1597911334538-200x200.jpg</avatar>
    <pubDate>Mon, 03 Feb 2025 09:32:03 +0000</pubDate>
    <dc:creator><![CDATA[Magnus Mühlbradt]]></dc:creator>
    		<category><![CDATA[Arbeidsliv]]></category>
		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[Personvernpolitikk]]></category>
		<category><![CDATA[Teknologi]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3979</guid>
    <description><![CDATA[Personvernundersøkelsen 2024 viser at folk er delt i synet på om kunstig intelligens i det store og hele vil være et gode for samfunnet. Men de er enige i én ting: kunstig intelligens utfordrer personvernet. I undersøkelsen presenterer vi funnene fra en befolkningsundersøkelse som ble utført av analyseselskapet Opinion på vegne av Datatilsynet. Vi spurte [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p><strong>Personvernundersøkelsen 2024 viser at folk er delt i synet på om kunstig intelligens i det store og hele vil være et gode for samfunnet. Men de er enige i én ting: kunstig intelligens utfordrer personvernet.</strong></p>



<p>I <a href="https://www.datatilsynet.no/regelverk-og-verktoy/rapporter-og-utredninger/personvernundersokelser/personvernundersokelsen-2024/" target="_blank" rel="noreferrer noopener">undersøkelsen </a>presenterer vi funnene fra en befolkningsundersøkelse som ble utført av analyseselskapet Opinion på vegne av Datatilsynet. Vi spurte blant annet om hva folk tenker om kunstig intelligens, og vi ba dem om å ta stilling til ulike påstander.</p>



<figure class="wp-block-image size-full is-resized"><img loading="lazy" decoding="async" width="590" height="362" src="https://www.personvernbloggen.no/wp-content/uploads/2025/01/Bildestat1-1.png" alt="" class="wp-image-3981" style="width:686px;height:auto" srcset="https://www.personvernbloggen.no/wp-content/uploads/2025/01/Bildestat1-1.png 590w, https://www.personvernbloggen.no/wp-content/uploads/2025/01/Bildestat1-1-480x295.png 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) 590px, 100vw" /></figure>



<p>For at maskinlæringsløsninger skal kunne gi presise prediksjoner eller anbefalinger, kreves det ofte bruk av store mengder data. Disse dataene handler ofte om mennesker og vil derfor være å anse som personopplysninger.</p>



<p>I undersøkelsen vår er nesten syv at ti enige i at kunstig intelligens vil utfordre personvernet ved at informasjon om dem samles inn og brukes på måter de ikke er enige i.</p>



<p>Vi har også stilt spørsmål om kunstig intelligens i arbeidslivet. Historisk sett har teknologiske endringer i arbeidslivet skapt stort engasjement ettersom det kan rokke på folks livsgrunnlag, for eksempel om de vil ha en jobb og inntekt i fremtiden.</p>



<p>Omtrent halvparten (51 prosent) sier seg enige i at kunstig intelligens vil føre til at flere mister jobben, uten at det skapes nok nye jobber. Samtidig sier nesten halvparten (47 prosent) seg enige i at kunstig intelligens vil bedre arbeidslivet fordi mennesker slipper å gjøre oppgaver som er kjedelige eller farlige.</p>



<h2 class="wp-block-heading">Holdninger til konkret bruk av kunstig intelligens</h2>



<p>I undersøkelsen vår ba vi videre folk om å ta stilling til konkrete scenarioer hvor KI kan brukes.</p>



<figure class="wp-block-image size-full is-resized"><img loading="lazy" decoding="async" width="581" height="327" src="https://www.personvernbloggen.no/wp-content/uploads/2025/01/Bildestat2.png" alt="" class="wp-image-3982" style="width:688px;height:auto" srcset="https://www.personvernbloggen.no/wp-content/uploads/2025/01/Bildestat2.png 581w, https://www.personvernbloggen.no/wp-content/uploads/2025/01/Bildestat2-480x270.png 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) 581px, 100vw" /></figure>



<p>Den aktiviteten flest (42 prosent) er positive til, er å bruke kunstig intelligens til å stille diagnoser og foreslå behandlinger. Dette kan være fordi mange ser potensialet og nytten ved slik bruk, samt en allerede etablert tillit til helsesektoren. Samtidig er 41 prosent negative, noe som indikerer bekymring for mulige negative konsekvenser.  </p>



<p>Når det gjelder bruken av kunstig intelligens til å behandle lånesøknader i banken, er den største andelen (45 prosent) av folk negative. Dette er bruksområder hvor det har foregått diskusjoner om etiske problemstillinger, slik som rettferdig behandling og diskriminering, og hvorvidt en algoritme kan ta en god beslutning om hvem som får – eller ikke får – stønad eller lån.</p>



<p>Det folk er mest negative til er bruk av kunstig intelligens for måling og kontroll av produktivitet på jobben. Gjennomgående i undersøkelsene Datatilsynet har gjennomført, ser vi at folk er skeptiske til ulike former for kontrolltiltak i arbeidslivet, uavhengig av hvilken teknologi som blir brukt.</p>



<h2 class="wp-block-heading">Myndighetene bør ta en aktiv rolle</h2>



<p>Det er naturlig å tenke på regulering som en løsning på mange av utfordringene som kunstig intelligens kan by på. Men i hvilken grad mener folk at myndighetene bør ta en aktiv rolle i å regulere kunstig intelligens for å sikre en ansvarlig utvikling?</p>



<figure class="wp-block-image size-full is-resized"><img loading="lazy" decoding="async" width="493" height="254" src="https://www.personvernbloggen.no/wp-content/uploads/2025/01/Bildestat3.png" alt="" class="wp-image-3983" style="width:681px;height:auto" srcset="https://www.personvernbloggen.no/wp-content/uploads/2025/01/Bildestat3.png 493w, https://www.personvernbloggen.no/wp-content/uploads/2025/01/Bildestat3-480x247.png 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) 493px, 100vw" /></figure>



<p>Svarene viser at det er bred støtte (84 prosent) for at myndighetene bør ta en aktiv rolle i reguleringen av kunstig intelligens.</p>



<p>Dette synet har også vært fremtredende i den politiske debatten de siste årene. For eksempel var hovedbudskapet i <a href="https://www.regjeringen.no/no/tema/statlig-forvaltning/personvern/personvernkommisjonens-rapport/id2938166/" target="_blank" rel="noreferrer noopener">Personvernkommisjonens rapport</a> fra 2022 at det er nødvendig å få på plass en nasjonal personvernpolitikk for at digitaliseringen skal skje i tråd med grunnleggende menneskerettigheter.</p>



<p>I den nye <a href="https://www.regjeringen.no/no/tema/statlig-forvaltning/it-politikk/ny-nasjonal-digitaliseringsstrategi/id2982892/" target="_blank" rel="noreferrer noopener">digitaliseringsstrategien</a> skriver regjeringen at de ser på digitalisering som en viktig del av løsningen på samfunnsutfordringene våre. Hvordan strategien følges opp i praksis, vil vise om myndighetene faktisk kan bidra og oppfordre til en utvikling av kunstig intelligens på en måte som bevarer tilliten i samfunnet, eller om folk vil være mer skeptiske til bruken av kunstig intelligens på måter som påvirker deres hverdag.</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2025/02/03/hva-mener-folk-om-kunstig-intelligens-og-personvern/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Ikkje hopp på KI-toget uten ein plan for å hoppe av</title>
    <link>https://www.personvernbloggen.no/2025/01/23/ikkje-hopp-pa-ki-toget-uten-ein-plan-for-a-hoppe-av/</link>
    <comments>https://www.personvernbloggen.no/2025/01/23/ikkje-hopp-pa-ki-toget-uten-ein-plan-for-a-hoppe-av/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2025/01/Datatilsynet_Arild-200x200.jpg</avatar>
    <pubDate>Thu, 23 Jan 2025 11:00:41 +0000</pubDate>
    <dc:creator><![CDATA[Arild Opheim]]></dc:creator>
    		<category><![CDATA[Arbeidsliv]]></category>
		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[Informasjonssikkerhet]]></category>
		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[Personvernforordningen (GDPR)]]></category>
		<category><![CDATA[Teknologi]]></category>
		<category><![CDATA[bossware]]></category>
		<category><![CDATA[Copilot]]></category>
		<category><![CDATA[digitalisering]]></category>
		<category><![CDATA[DPIA]]></category>
		<category><![CDATA[exit-strategi]]></category>
		<category><![CDATA[generativ kunstig intelligens]]></category>
		<category><![CDATA[integrert KI]]></category>
		<category><![CDATA[M365 Copilot]]></category>
		<category><![CDATA[NTNU]]></category>
		<category><![CDATA[Overvåking]]></category>
		<category><![CDATA[personvern]]></category>
		<category><![CDATA[personvernkonsekvensvurdering]]></category>
		<category><![CDATA[regulatorisk sandkasse]]></category>
		<category><![CDATA[sandkassa]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3976</guid>
    <description><![CDATA[Det har vore ein røff start på året for mykje av den skinnegåande trafikken her i landet. Berre ordet &#171;tog&#187; kan nok framkalle fukt i augekroken for pendlarar. Men KI-toget dundrer vidare. Kanskje faretruande fort?&#160;Og mange kan nok kjenne på ei frykt for å bli ståande igjen på perrongen. Etter den første bølga med generative [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p>Det har vore ein røff start på året for mykje av den skinnegåande trafikken her i landet. Berre ordet &laquo;tog&raquo; kan nok framkalle fukt i augekroken for pendlarar. Men KI-toget dundrer vidare. Kanskje faretruande fort?&nbsp;Og mange kan nok kjenne på ei frykt for å bli ståande igjen på perrongen.</p>



<p>Etter den første bølga med generative KI-verktøy som kunne gjere mykje artig, var 2024 året for integrerte KI-verktøy i systema vi allereie brukar. Slik som Microsofts M365 Copilot. Vi blir lokka med ein enklare og meir effektiv arbeidskvardag. Men det har også ein pris. Ikkje berre i kroner og øre.</p>



<h2 class="wp-block-heading">Grundig kalkyle frå NTNU</h2>



<p>Kva den prisen blir, er eit komplekst reknestykke. Så kva er vel betre enn at ein tung og truverdig aktør som NTNU tok på seg oppgåva med å rekne seg fram til eit svar. I god akademisk ånd gjekk dei grundig til verks. Og dei involverte oss i Datatilsynet ved å bli med i vår regulatoriske sandkasse. Det er eit veiledningtilbud, der vi kan gå djupare i materien – og ja, på ein måte vere meir løysningsorienterte – enn rammene tillet oss i tradisjonelle veiledningsformer.</p>



<p>Vi merka at mange «der ute» venta i spenning på vurderingane og erfaringane frå prosjektet. I slutten av november lanserte vi rapporten som ser på korleis ein stor offentleg aktør som NTNU eventuelt kan ta i bruk M365 Copilot. </p>



<p><a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/ntnu-sluttrapport-copilot-med-personvernbriller-pa/">Sjå rapporten «Copilot med personvernbriller på»</a>.</p>



<p>Før det hadde NTNU også laga ein rapport med viktige funn utover det reint personvernmessige, der dei tar for seg både forvaltning, opplæring, økonomiske kostnader og korleis eit slikt verktøy kan påverke organisasjonen og arbeidsmiljøet.</p>



<p><a href="https://www.ntnu.no/documents/10507/1350391340/2024-06-17+NTNU+Funnrapport+Pilotere+Copilot+for+Microsoft+365.pdf/f29def95-c64f-067c-3f03-6f5adb120dbc?t=1718604131532">Sjå NTNUs funnrapport</a>.</p>



<h2 class="wp-block-heading">Forsiktig med den røde knappen</h2>



<p>Hovedbudskapet er at verksemder bør vere varsame med å berre trykke på den røde knappen og ta i bruk dette eller liknande integrerte KI-verktøy utan å gjere grundige vurderingar i forkant, i tillegg til å sikre kontrollmekanismar og god opplæring av brukarane. For dette er kraftfulle saker.</p>



<p>Begge rapportane er pedagogisk oppbygd og delt inn i 8-9 funn eller hovedpunkt. Det er verdt å lese dei begge, men som ein appetittvekker, skal du få fem sentrale punkt her: &nbsp;</p>



<h2 class="wp-block-heading">1. <strong>Start med ein strategi.</strong></h2>



<p>Definer tydeleg kva verksemda ønsker å oppnå, kva områder som er aktuelle for KI-bruk og kva områder ein bør halde utanfor. Som hovedregel er generativ KI best når du allereie kan det du vil at den skal hjelpe deg med, du har kapasitet til å kvalitetssikre arbeidet, og er villig til å ta det heile og fulle ansvaret for feil i det den leverer.</p>



<h2 class="wp-block-heading">2. <strong>Sørg for orden i eige hus.</strong></h2>



<p>Dette er superviktig. Copilot finn (og behandlar) all informasjon du har tilgang til. Det er godt muleg at du har tilgang til mykje meir informasjon enn du er klar over. Det kjem an på om verksemda di har stålkontroll, eller ikkje, på tilgangsstyring og alt som fins av personopplysningar i systema som blir brukt. Sjølv om lova krev at verksemder har stålkontroll – om enn i meir juridiske formuleringar – ville det vere naivt av Datatilsynet å ta for gitt – slik leverandøren av Copilot gjer – at absolutt alle faktisk har det.</p>



<p>Ei utfordring med Copilot er at svakheter i &laquo;den digitale grunnmuren&raquo; blir synlege og kraftig forsterka med eit verktøy som har tilgang til alt du har tilgang til &#8211; og veit å utnytte seg av det.</p>



<p>Eller for å ta den positive tilnærminga: premien til dei som har skikkeleg orden i eige hus, er at dei har ein langt kortare veg til å kunne ta i bruk integrert KI, som for eksempel Copilot.</p>



<h2 class="wp-block-heading">3. <strong>Tenk grundig (og kreativt) gjennom kva som kan gå galt?</strong></h2>



<p>Brukarar vil dele alle typar data med, og bruke, generativ kunstig intelligens til det dei kan. Sånn er det berre. Er det muleg, vil det bli gjort. Det er viktig å ta med seg inn når ein skal gjere vurderingar av kva personvernkonsekvensar det vil få å ta i bruk eit slikt verktøy. Ein kan ikkje ta for gitt at folk berre brukar verktøyet slik sjefane har tenkt.</p>



<p>Og apropos sjefane: dette verktøyet kan brukast som bossware. «Kan» her som i teknologisk – ikkje juridisk – mulighet. La meg sitere frå NTNUs funn: </p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>«arbeidsgivere kan vurdere ansattes prestasjoner og adferd basert på skriftlig innhold de har tilgang til, som filer, dokumenter, Teams-chatter, e-postkorrespondanse, Teams-innhold, følelsesreaksjoner (emojis), transkripsjoner fra møter med automatisk opptak, osv. Ansatte har ingen mulighet til å finne ut om en slik vurdering av dem selv har skjedd.»</p>
</blockquote>



<p>NTNU oppdaga at det er lett å få verktøyet til å seie noko om humør og sinnsstemning til andre tilsette. Og:</p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>«Når Copilot har for lite informasjon å jobbe med, kan det oppstå utfordringer med løgn og hallusinasjoner. Det er sannsynlig at Copilot kan &laquo;finne på&raquo; følelser for de ansatte, noe som gjør denne problemstillingen enda mer utfordrende.»</p>
</blockquote>



<p>Ein kanskje litt kontroversiell tanke i NTNU-rapporten er å vurdere om for eksempel leiarar med personalansvar ikkje skal få tilgang til Copilot, mens tilsette «på gølvet» kan få det?</p>



<p>På toppen av det heile er dette eit verktøy i stadig endring – på godt og vondt. Feil blir fortløpande retta, verktøyet blir stadig justert, men nye funksjonar blir også stadig lagt til. Det gjer det utfordrande å forvalte. Det krev ei vaken IT-avdeling. Det krev masse opplæring. Og det krev disiplinerte brukarar.</p>



<p>Så sett frå eit personvernperspektiv; det er mykje som kan gå galt og mange ledd det kan svikte i. Og det er verksemda sitt ansvar å ha tenkt grundig gjennom alt.</p>



<h2 class="wp-block-heading">4. <strong>Vurder alternative løysingar.</strong></h2>



<p>Viss nokon av blomstrane i bedet ser litt tørste ut, set du ikkje heile hagen under vatn. Då er vi tilbake til strategien. Kanskje held det med eit par meir spissa KI-verktøy, som gjer akkurat dei arbeidsoppgåvene det er (mest) behov for, i staden for dei integrerte som skal slurpe i seg det som fins av data i organisasjonen?</p>



<p>Det er definitivt verd å ta med i kalkuleringane, når arbeidet i organisasjonen skal effektiviserast, at det kan vere langt meir ressurskrevande å forvalte eit stort og komplekst verktøy, enn eit par små.</p>



<p>Og &#8211; kanskje litt pussig, men eit siste punkt:</p>



<h2 class="wp-block-heading">5. &nbsp;<strong>Ikkje hopp på KI-toget utan ein exit-strategi</strong>.</h2>



<p>Ha ein klar plan for korleis verktøyet kan bli skrudd av, om nødvendig, før du slår det på.</p>



<p>Nederland har nyleg fraråda statlege verksemder å ta i bruk Copilot. Nokon vil kanskje påstå at vi i praksis gjer det samme. Men nei, teknologien har mykje bra i seg, og det handlar om å finne gode og praktiske tilnærmingar for å ta den i bruk på ein forsvarleg måte. Vår oppfordring er å gjere det i små og kontrollerte steg.</p>



<p>Men &#8211; dersom både dei som bygger KI-toget og passasjerane som kastar seg på er drevet av frykt for å ikkje vere fremst i toget, er det nok oppskrifta på ein ganske forutsigbar 💥 🙈</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2025/01/23/ikkje-hopp-pa-ki-toget-uten-ein-plan-for-a-hoppe-av/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Har vi kontroll over personopplysningene våre?</title>
    <link>https://www.personvernbloggen.no/2024/10/22/har-vi-kontroll-over-personopplysningene-vare/</link>
    <comments>https://www.personvernbloggen.no/2024/10/22/har-vi-kontroll-over-personopplysningene-vare/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2024/02/Helle-Jacobsen-scaled_kvadr-200x200.jpg</avatar>
    <pubDate>Tue, 22 Oct 2024 13:01:19 +0000</pubDate>
    <dc:creator><![CDATA[Helle Jacobsen]]></dc:creator>
    		<category><![CDATA[Den registrertes rettigheter]]></category>
		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[Personvernforordningen (GDPR)]]></category>
		<category><![CDATA[Teknologi]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3965</guid>
    <description><![CDATA[Retten til å ha kontroll over egne personopplysninger står sentralt i personvernregelverket. Samtidig samler de fleste nettsider og apper inn informasjon om vår adferd på nett, hva vi er interessert i, og hvor vi befinner oss. I hvilken grad føler nordmenn at de har kontroll over slike opplysninger? Personvernundersøkelsen 2024, utført av analyseselskapet Opinion på [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p><strong>Retten til å ha kontroll over egne personopplysninger står sentralt i personvernregelverket. Samtidig samler de fleste nettsider og apper inn informasjon om vår adferd på nett, hva vi er interessert i, og hvor vi befinner oss. I hvilken grad føler nordmenn at de har kontroll over slike opplysninger?</strong></p>



<p><a href="https://www.datatilsynet.no/regelverk-og-verktoy/rapporter-og-utredninger/personvernundersokelser/personvernundersokelsen-2024/personvernundersokelsen-2024/" target="_blank" rel="noreferrer noopener">Personvernundersøkelsen 2024</a>, utført av analyseselskapet Opinion på vegne av Datatilsynet, gir innsikt i dette spørsmålet.</p>



<h2 class="wp-block-heading">Kjenner folk flest sine rettigheter?</h2>



<p>En viktig forutsetning for at vi skal kunne ta vare på rettighetene våre er at vi kjenner til dem. Kjenner den norske befolkningen egentlig til sentrale rettigheter i personvernregelverket?</p>



<figure class="wp-block-image size-full is-resized"><img loading="lazy" decoding="async" width="605" height="293" src="https://www.personvernbloggen.no/wp-content/uploads/2024/10/rettigheter.png" alt="" class="wp-image-3966" style="width:686px;height:auto" srcset="https://www.personvernbloggen.no/wp-content/uploads/2024/10/rettigheter.png 605w, https://www.personvernbloggen.no/wp-content/uploads/2024/10/rettigheter-480x232.png 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) 605px, 100vw" /></figure>



<p>De aller fleste har hørt om <a href="https://www.datatilsynet.no/rettigheter-og-plikter/virksomhetenes-plikter/informasjon-og-apenhet/" target="_blank" rel="noreferrer noopener">retten til informasjon</a> om hva en virksomhet samler inn, <a href="https://www.datatilsynet.no/rettigheter-og-plikter/den-registrertes-rettigheter/rett-til-innsyn/" target="_blank" rel="noreferrer noopener">innsyn i personopplysninger</a>, <a href="https://www.datatilsynet.no/rettigheter-og-plikter/den-registrertes-rettigheter/rett-til-sletting/" target="_blank" rel="noreferrer noopener">retten til å slette</a> og at det i blant er lov å <a href="https://www.datatilsynet.no/rettigheter-og-plikter/den-registrertes-rettigheter/rett-til-a-protestere/" target="_blank" rel="noreferrer noopener">protestere mot bruk</a>. Det er et godt utgangspunkt. Det betyr, i det minste i teorien, at de har noen verktøy de kan bruke når de føler at opplysningene ikke blir brukt i tråd med forventningene.</p>



<h2 class="wp-block-heading">Opplever folk at de har kontroll?</h2>



<p>Når så mange har kjennskap til sentrale rettigheter i personvernregelverket – betyr det at folk flest opplever at de har kontroll over hvordan personopplysningene deres brukes på internett?</p>



<figure class="wp-block-image size-full is-resized"><img loading="lazy" decoding="async" width="954" height="474" src="https://www.personvernbloggen.no/wp-content/uploads/2024/10/kontroll-1.png" alt="" class="wp-image-3968" style="width:690px;height:auto" srcset="https://www.personvernbloggen.no/wp-content/uploads/2024/10/kontroll-1.png 954w, https://www.personvernbloggen.no/wp-content/uploads/2024/10/kontroll-1-480x238.png 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) 954px, 100vw" /></figure>



<p>Svaret på det spørsmålet er mer sprikende. Det er flest som velger «verken eller» på påstanden om opplevd kontroll, noe som kan tyde på at mange er usikre, eller at graden av opplevd kontroll er avhengig av hvilken tjeneste det er snakk om. Totalt sett er det flere som føler at de i svært liten eller liten grad har kontroll, enn som føler at de har stor eller svært stor grad av kontroll.</p>



<p>Undersøkelsen viser også at eldre mennesker i større grad enn yngre oppgir å ha kontroll over personopplysningene sine. Dette kan ha en sammenheng med at de trolig bruker færre tjenester på internett enn sine yngre, mer digitalt avanserte landsmenn. Jo flere tjenester som samler inn opplysninger, desto mer krevende kan det være å ta kontroll over opplysningene sine. Variasjonen i svarene kan også henge sammen med graden av tillit til de ulike tjenestene. Undersøkelsen viser at nordmenn flest har tillit til at offentlige virksomheter og banker behandler opplysningene deres på en god måte, mens kommersielle tjenester som sosiale medier og spill ikke nyter den samme tilliten.</p>



<h2 class="wp-block-heading">Forstår folk flest hva som samles inn om dem?</h2>



<p>De fleste har altså kjennskap til personvernrettighetene sine, men mange opplever at de ikke har kontroll over personopplysningene sine. En forutsetning for å kunne ta kontroll er å i første instans <a href="https://www.datatilsynet.no/personvern-pa-ulike-omrader/overvaking-og-sporing/" target="_blank" rel="noreferrer noopener">forstå hva de ulike virksomhetene samler inn av informasjon</a>. I undersøkelsen har vi bedt respondentene ta stilling til om de forstår hva som samles inn gjennom ett av mange eksempler på sporingsteknologi vi omgir oss med, nemlig informasjonskapsler.</p>



<p>Informasjonskapsler er sporingsteknologi som vi som brukere stadig blir bedt om å ta stilling til. Hva skal virksomheten få lov til å samle inn? Kapslene brukes til å huske informasjon om de som besøker et nettsted, slik som foretrukne innstillinger eller innloggingsdetaljer, som gjør det enklere å bruke tjenesten. Andre kapsler kartlegger i detalj hvilke sider brukerne besøker, hvor lenge de er der og hva de gjør.</p>



<figure class="wp-block-image size-large is-resized"><img loading="lazy" decoding="async" width="1024" height="613" src="https://www.personvernbloggen.no/wp-content/uploads/2024/10/forsta-1024x613.png" alt="" class="wp-image-3969" style="width:690px;height:auto" srcset="https://www.personvernbloggen.no/wp-content/uploads/2024/10/forsta-980x587.png 980w, https://www.personvernbloggen.no/wp-content/uploads/2024/10/forsta-480x287.png 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) and (max-width: 980px) 980px, (min-width: 981px) 1024px, 100vw" /></figure>



<p>Det er flere som sier at de ikke forstår, enn som forstår, hva de bes om å ta stilling til når et nettsted ber om samtykke til å samle inn opplysninger om dem. Vi stilte også et oppfølgingsspørsmål om i hvilken grad folk flest tenkte seg om før de valgte innstilling. Selv blant de som tenker seg om sier halvparten at de fortsatt ikke forstår hva virksomheten ber om å få samle inn av opplysninger. Dette indikerer at det er vanskelig å få en oversikt over hva som samles inn om oss når vi besøker ulike nettsteder. Og jo flere nettsteder vi besøker, desto vanskeligere er det å opprettholde en oversikt, og dermed også å ha kontroll over egne personopplysninger.</p>



<p>Undersøkelsen viser også at mange av de som forstår hva virksomhetene ber om å få samle inn ikke har kontroll over personopplysningene sine. Resultatet gir sterke indikasjoner om at det er vanskelig å ha oversikt over sporingen som foregår på internett, og at det oppleves som vanskelig å ta kontroll over egne personopplysninger.</p>



<p>Det kan altså se ut som at det ikke er mangelen på kunnskap som hindrer oss fra å ta kontroll over personopplysningene våre, men at det snarere er måten de samles inn på og brukes som er vanskelig å få oversikt over. Uten reelle verktøy for å ivareta rettighetene våre, ligger vårt personvern i stor grad i virksomhetenes hender.</p>



<figure class="wp-block-table"><table class="has-fixed-layout"><tbody><tr><td><strong>Om Personvernundersøkelsen 2024</strong><br>Personvernundersøkelsen 2024 er en landsrepresentativ kartlegging av befolkningens forhold til personvern som Datatilsynet gjennomfører omtrent hvert femte år. Dette innlegget er ett av tre som tar for seg hovedfunnene.<br><a href="https://www.datatilsynet.no/contentassets/919fa7813a98444d8726bc937b0ab602/personvernundersokelsen-2024.pdf">Du finner hele rapporten fra undersøkelsen på www.datatilsynet.no.</a></td></tr></tbody></table></figure>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2024/10/22/har-vi-kontroll-over-personopplysningene-vare/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Personverndagen 2024 oppsummert: Kunstig intelligens møter personvern</title>
    <link>https://www.personvernbloggen.no/2024/02/01/personverndagen-2024-oppsummert-kunstig-intelligens-moter-personvern/</link>
    <comments>https://www.personvernbloggen.no/2024/02/01/personverndagen-2024-oppsummert-kunstig-intelligens-moter-personvern/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2024/02/Helle-Jacobsen-scaled_kvadr-200x200.jpg</avatar>
    <pubDate>Thu, 01 Feb 2024 12:34:45 +0000</pubDate>
    <dc:creator><![CDATA[Helle Jacobsen]]></dc:creator>
    		<category><![CDATA[Arrangement]]></category>
		<category><![CDATA[Barn og unge]]></category>
		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[Internasjonalt]]></category>
		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[Personverndagen]]></category>
		<category><![CDATA[Personvernpolitikk]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3909</guid>
    <description><![CDATA[Nylig gikk den 12. markeringen av den internasjonale personverndagen av stabelen i regi av Teknologirådet og Datatilsynet. Etter både fysisk og digitalt oppmøte å dømme, er årets tema brennhett. 2023 har vært et sammenhengende gjennombrudd for generativ kunstig intelligens, og &#171;KI-generert&#187; er årets nyord. Verktøyene er både artige og nyttige, men utfordrer også personvernet. Vi [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p><strong>Nylig gikk den 12. markeringen av den internasjonale personverndagen av stabelen i regi av Teknologirådet og Datatilsynet. Etter både fysisk og digitalt oppmøte å dømme, er årets tema brennhett.</strong> </p>



<p>2023 har vært et sammenhengende gjennombrudd for generativ kunstig intelligens, og &laquo;KI-generert&raquo; er årets nyord. Verktøyene er både artige og nyttige, men utfordrer også personvernet. Vi markerte dagen med et arrangement om tematikken, og løfter her frem noen høydepunkter fra dagen. </p>



<h2 class="wp-block-heading">Hva skjedde i 2023?</h2>



<p>Med Open AI ble generativ KI allemannseie og representerer denne generasjonens viktigste teknologigjennombrudd. Mange mener at hemmeligheten bak suksessen ligger i at modellen oppleves menneskelig når du bruker den. Det ligger dessuten stor variasjon av muligheter i store språkmodeller, fra å lage chatbots og programmeringskode til å skape kunst og oversette tekster, for å nevne noe.</p>



<p>Denne kraftige teknologien har også noen skyggesider knyttet til de enorme datamengdene modellen er trent på, slik som manglende åpenhet og potensial for misbruk av ondsinnede aktører. Som konsekvens krevde 1000 eksperter et midlertidig forbud, og idet italienske datatilsynet påla OpenAI om å stanse all behandling av data fra italienske brukere, kunne direktør i Datatilsynet, Line Coll, fortelle.</p>



<p>Av andre saker med stor betydning i 2023 trakk Line frem følgende:</p>



<ul class="wp-block-list">
<li>EU-U.S. Data Privacy Framework: Et nytt avtaleverk som gjør det mulig å overføre personopplysning mellom EU og USA.   </li>



<li>Meta-saken: Datatilsynet fattet et vedtak om at Metas behandling av personopplysninger for adferdsbasert markedsføring var ulovlig på Facebook og Instagram.</li>



<li>Barns personvern neglisjeres: Amazon fikk bot for å lagre taledata gjennom Alexa og klokker som primært brukes av barn. TikTok fikk bot for ikke å ha godt nok personvern for mindreårige. I Norge har strømming av barneidrett vært en het potet.</li>
</ul>



<h2 class="wp-block-heading">Trender i 2024</h2>



<p>Direktør i Teknologirådet, Tore Tennøe, gikk gjennom noen trender og forsøkte å se inn i personvernets umiddelbare fremtid. Det knyttes blant annet stor interesse til bruken av ansiktsgjenkjenningsteknologi i tiden fremover, som for eksempel under OL i Paris. Skal man kunne gjenkjenne ansikter, eller bare posisjoner og mistenkelige objekter? Diskusjonen aktualiserer etterretningsbehov mot retten til privatliv.</p>



<p>AI Act er nylig vedtatt, og blir et avgjørende rammeverk for utviklingen av KI fremover, også med hensyn til bruken av biometri, som i ansikts- og følelsesgjenkjenningsteknologi.</p>



<p>2024 markerer antakeligvis begynnelsen på slutten på den opprinnelige overvåkingsteknologien – informasjonskapselen. Google vil kutte det ut i sin nettleser Chrome i løpet av 2024.</p>



<p><em>Nysgjerrig på å se dypere inn i spåkula? Se opptaket! (link nederst i dette blogginnlegget). </em></p>



<h2 class="wp-block-heading">Kan man trene språkmodeller med data fra nettet?</h2>



<p>I utviklingen av Open AI ble det brukt enorme mengder data fra en stor variasjon av kilder. Selskapet er sparsomme med å fortelle hvor de har hentet data fra. Tore viste imidlertid en analyse av et snapshot som viste kilder som sosiale medier, nettsider, elektroniske bøker, et valgregister og personlige blogger. Både Google og Open AI har fått søksmål mot seg grunnet denne typen praksis.</p>



<p>Det sentrale i en personvernsammenheng er at man må ha et lovlig behandlingsgrunnlag for å kunne behandle personopplysninger<strong>. </strong>Vi diskuterte behandlingsgrunnlaget &laquo;berettiget interesse&raquo;, og i hvilken grad dette kan brukes til å innhente data. Det er flere saker knyttet til dette i Europa nå.</p>



<p>Behandlingsgrunnlag er altså nøkkelen, også til andre modeller innen ulike domener som for eksempel finans, utdanning og helse. Dataene får stadig nye formål, og utfordrer eksempelvis både pasientenes og de ansattes rett til personvern. Her er det noen utfordringer. Skal man spørre om samtykke igjen? Hva gjør man med de som sier nei? Bør man heller anonymisere eller bruke syntetiske data?</p>



<h2 class="wp-block-heading">Kunstig intelligens og personvern i den virkelige verden</h2>



<p>Eivind Arntsen er advokat og leder av <a href="https://juridiskabc.no/" target="_blank" rel="noreferrer noopener">Juridisk ABC</a>, en tjeneste basert på generativ KI som skal gjøre det enklere for arbeidsgivere å manøvrere riktig innenfor arbeidsrett. De ønsker å tilpasse tjenesten med å gi den tilgang til dommer og lovtekst, noe som utgjør deres primære utfordring. Juridisk ABC er for øvrig ett av fire prosjekter i <a href="https://www.datatilsynet.no/aktuelt/aktuelle-nyheter-2023/tid-for-sprakmodeller-i-sandkassa/" target="_blank" rel="noreferrer noopener">Datatilsynets regulatoriske sandkasse</a> våren 2024.</p>



<p>Umair M. Imam er sjef for data og KI i Ruter, og har erfaring med å bruke KI i et titalls prosjekter i Ruter. De bruker for eksempel generativ KI for å analysere klager. Brukere deler ofte data om seg selv i disse klagene, noe Ruter løser ved hjelp av en algoritme som «gjemmer» persondataene.</p>



<p>Julie Lødrup er førstesekretær i LO, og benyttet anledningen til å løfte frem prinsippet om arbeidstakeres rett til medbestemmelse. Den fungerer stort sett godt på alle felt i det norske arbeidslivet, unntatt ett: digitalisering. Hun mener dette skyldes at både arbeidsgivere og arbeidstakere anser teknologi generelt, og kanskje KI spesielt, som noe vanskelig og som kun angår teknologene. De som skal bruke teknologien bør involveres. Hun fremhevet også utfordringen med at teknologien som anskaffes ofte er laget i land med andre arbeidsmodeller som ikke er like opptatt av arbeideres rettigheter. Om programvaren har funksjonalitet som gjør det mulig å overvåke de ansatte, kan det være lett for arbeidsgiver å la seg friste.</p>



<h2 class="wp-block-heading">Er politikken tilpasset terrenget? </h2>



<p>På fjorårets personverndag ble en nasjonal personvernpolitikk diskutert, og i år fulgte vi opp med siste status i politikken. I løpet av sommeren 2024 skal en ny digitaliseringsstrategi og en ny personvernstrategi være ferdig, og de to skal henge tett sammen, fortalte statssekretær Gunn Karin Gjul (Ap). For å unngå at denne politikken ender opp med kun strategier og lite handling, ønsker Grunde Almeland (V) en mer demokratisk forankret stortingsmelding på temaet.&nbsp; &nbsp;</p>



<p>En annen stor sak er KI-forordningen (AI Act), som vil treffe stortinget gjennom lovgivning. Gjul orienterte om at dette er EØS-relevant, og at myndighetene er i gang med dette arbeidet allerede. Det er ikke bestemt hvordan dette skal organiseres, og Digitaliserings- og forvaltningsdepartementet har gitt DFØ i oppdrag å utrede mulige organisatoriske systemer som algoritmetilsyn, overordnet tilsyn og rapporteringsordninger.</p>



<p>Avslutningsvis spurte Tore, på vegne av en venn, om det er greit å ha en KI-kjæreste. Panelet var enige om at det måtte være opp til den enkelte, men med ett premiss: at leverandøren av KI-kjæresten opererer innenfor loven. Og det skal vi hjelpe dem med, rundet Line av med.&nbsp;</p>



<p><a href="https://www.datatilsynet.no/aktuelt/aktuelle-nyheter-2023/personverndagen-2024-kunstig-intelligens-moter-personvern/" target="_blank" rel="noreferrer noopener">Se opptak av hele arrangementet på Datatilsynets nettsider.</a></p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2024/02/01/personverndagen-2024-oppsummert-kunstig-intelligens-moter-personvern/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Verdens første KI-lov til Norge: Hvilke utfordringer vil reglene løse?</title>
    <link>https://www.personvernbloggen.no/2024/01/29/verdens-forste-ki-lov-til-norge-hvilke-utfordringer-vil-reglene-lose/</link>
    <comments>https://www.personvernbloggen.no/2024/01/29/verdens-forste-ki-lov-til-norge-hvilke-utfordringer-vil-reglene-lose/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2021/12/20211025_Datatilsynet_Tobias_002_kvadrat-–-Kopi-200x200.jpg</avatar>
    <pubDate>Mon, 29 Jan 2024 07:18:08 +0000</pubDate>
    <dc:creator><![CDATA[Tobias Judin]]></dc:creator>
    		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[Lovgivning]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3897</guid>
    <description><![CDATA[Dette innlegget, signert direktør Line Coll og seksjonssjef Tobias Judin, sto på trykk i Aftenposten 29. januar 2024. EU finpusser verdens første kunstig intelligens(KI)-lov, og en lekket versjon begynte å sirkulere på nett denne uken. Hvilke utfordringer vil reglene løse, og hvilke gjenstår? Førsteamanuensis og Aftenposten-spaltist Inga Strümke skriver med rette at vi trenger EUs KI-forordning for [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p><strong>Dette innlegget, signert direktør Line Coll og seksjonssjef Tobias Judin, sto på trykk i Aftenposten 29. januar 2024.</strong></p>



<p>EU finpusser verdens første kunstig intelligens(KI)-lov, og en lekket versjon begynte å sirkulere på nett denne uken. Hvilke utfordringer vil reglene løse, og hvilke gjenstår?</p>



<p>Førsteamanuensis og Aftenposten-spaltist <a href="https://www.aftenposten.no/meninger/kommentar/i/wA1AAA/eu-vil-bli-verdensledende-hva-med-norge">Inga Strümke skriver med rette</a> at vi trenger EUs KI-forordning for å regulere KI. Samtidig er vi ikke helt enige i at reglene rydder opp i paragrafjungelen.</p>



<p>Forordningen samler ikke KI-regler på ett sted, men kommer i tillegg til andre lover som regulerer KI, slik som GDPR (personvernforordningen). Det er også mange KI-systemer som ikke er omfattet av forordningen.</p>



<p>Strümke har også rett i at Norge må jobbe godt med å få reglene inn i norsk rett. Utfordringen er å innføre reglene på en måte som tar ned kompleksiteten for virksomheter og samtidig ivaretar verdiene i samfunnet.</p>



<h2 class="wp-block-heading">Forbud og samspill</h2>



<p>Forordningen inneholder flere forbud og vil tilrettelegge for KI som vi kan stole på, og som ivaretar menneskerettigheter og demokrati. For eksempel forbys manipulativ KI som forårsaker vesentlig skade.</p>



<p>Imidlertid forbys ikke KI som bare fører til medium skade. Det skaper uklarhet og rom for omgåelse. Spørsmålet er da hvor effektive reglene vil være. Dette er et av mange eksempler på at forordningen må suppleres, helst av klare nasjonale regler. I det minste av etikk og fornuft.</p>



<p>Reglene oppstiller også plikter for høyrisiko-KI. Eksempler er KI som brukes til rekruttering eller avgjørelser om trygdeytelser. Det stilles krav til risikovurdering, gode treningsdata, testing, dokumentasjon og involvering av mennesker. Algoritmene må være nøyaktige og sikre nok.</p>



<p>Mange av pliktene overlapper med GDPR. Det er derfor både viktig og ressursbesparende å se de to lovene i sammenheng, av hensyn til gode helhetsvurderinger og for å unngå dobbeltarbeid.</p>



<p>De fleste av de nye pliktene gjelder tilbyderne. Samtidig reguleres hele verdikjeden, også de som skal bruke KI, som får en huskeliste: Følg bruksanvisningen, husk opplæring, bruk representative data og meld avvik.</p>



<h2 class="wp-block-heading">Generativ KI</h2>



<p>Forordningen vil også regulere KI-modeller som kan brukes til ulike formål, som generativ KI.</p>



<p>Tilbyderne må dokumentere modellenes evner og begrensninger, tenke opphavsrett samt publisere oversikt over treningsdata. De mest kompliserte modellene må ha risikoreduserende tiltak.</p>



<p>Det blir EU-kommisjonen som skal håndheve akkurat disse reglene.</p>



<h2 class="wp-block-heading">Tilsyn</h2>



<p>Hva gjelder tilsyn med de øvrige reglene, peker forordningen i ulike retninger: til datatilsynene for justissektoren og til finanstilsynene for finanssektoren. Ut over det må hvert land velge sin(e) tilsynsmyndighet(er).</p>



<p>Spørsmålet nå er om vi ønsker å legge mest mulig ett sted, eller om vi ønsker en sektorvis og fragmentert tilnærming.</p>



<p>Tilsynsmyndighetene skal imidlertid ikke bare sanksjonere, men også støtte ansvarlig innovasjon gjennom regulatoriske sandkasser,&nbsp;<a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/" target="_blank" rel="noreferrer noopener">slik Datatilsynet tilbyr</a>.</p>



<p>KI-forordningen løser ikke alt. Det er smutthull, mange former for KI er ikke omfattet, vi må unngå dobbeltarbeid, og vi må lage et godt system for tilsyn.</p>



<p>Hvordan vi løser dette, vil avgjøre om Norge lykkes med KI.</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2024/01/29/verdens-forste-ki-lov-til-norge-hvilke-utfordringer-vil-reglene-lose/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
  </channel>
</rss>