<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
  xmlns:content="http://purl.org/rss/1.0/modules/content/"
  xmlns:wfw="http://wellformedweb.org/CommentAPI/"
  xmlns:dc="http://purl.org/dc/elements/1.1/"
  xmlns:atom="http://www.w3.org/2005/Atom"
  xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
  xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
  >
<channel>
  <title>PersonvernbloggenLine Coll, Author at Personvernbloggen</title>
  <atom:link href="https://www.personvernbloggen.no/author/line/feed/" rel="self" type="application/rss+xml" />
  <link>https://www.personvernbloggen.no/author/line/</link>
  <description>Datatilsynets blogg om personvernspørsmål</description>
  <lastBuildDate>Wed, 28 Jan 2026 19:31:14 +0000</lastBuildDate>
  <language>nb-NO</language>
    <sy:updatePeriod>hourly</sy:updatePeriod>
    <sy:updateFrequency>1</sy:updateFrequency>
  <generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.personvernbloggen.no/wp-content/uploads/2018/03/cropped-DT-Favicon-32x32.jpg</url>
	<title>Line Coll, Author at Personvernbloggen</title>
	<link>https://www.personvernbloggen.no/author/line/</link>
	<width>32</width>
	<height>32</height>
</image> 
  <item>
    <title>Personvern er beredskap i en urolig verden</title>
    <link>https://www.personvernbloggen.no/2026/01/28/personvern-er-beredskap-i-en-urolig-verden/</link>
    <comments>https://www.personvernbloggen.no/2026/01/28/personvern-er-beredskap-i-en-urolig-verden/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2022/10/cropped-20220805_datatilsynet_line_coll_021-kvadr-200x200.jpg</avatar>
    <pubDate>Wed, 28 Jan 2026 19:23:38 +0000</pubDate>
    <dc:creator><![CDATA[Line Coll]]></dc:creator>
    		<category><![CDATA[Informasjonssikkerhet]]></category>
		<category><![CDATA[Internasjonalt]]></category>
		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[Personvernpolitikk]]></category>
		<category><![CDATA[Planer og strategier]]></category>
		<category><![CDATA[Teknologi]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=4108</guid>
    <description><![CDATA[Samfunnssikkerhet handler ikke lenger bare om soldater, forsyningslinjer og fysisk infrastruktur, men også om data, teknologi og kontroll over informasjon. I en verden preget uro, er personvern en viktig del av vår nasjonale beredskap.]]></description>
        <content:encoded><![CDATA[
<p><strong>Samfunnssikkerhet handler ikke lenger bare om soldater, forsyningslinjer og fysisk infrastruktur, men også om data, teknologi og kontroll over informasjon. I en verden preget uro, er personvern en viktig del av vår nasjonale beredskap.</strong></p>



<p><em>Dette innlegget er skrevet av Line Coll, direktør i Datatilsynet, og Kari Laumann, seksjonssjef for utredning, analyse og politikk i Datatilsynet. <a href="https://www.altinget.no/digital/artikkel/personvern-er-beredskap-i-en-urolig-verden" target="_blank" rel="noreferrer noopener">Innlegget ble først publisert i Altinget 28.01.2026.</a></em></p>



<p>Her hjemme har vi akkurat sparket i gang 2026, som av myndighetene er utpekt som Totalforsvarsåret. På bortebane ser vi at gamle allianser knaker og at den gamle regelbaserte verdensordenen utfordres. Teknologi har blitt et sentralt maktmiddel i geopolitikk, og personvern spiller en stadig viktigere rolle i sikkerhetspolitikken.</p>



<h2 class="wp-block-heading">Tekoligarker og avhengighet</h2>



<p>Store deler av Norges digitale infrastruktur er levert av en håndfull amerikanske selskaper. Disse selskapene er ikke bare teknologileverandører, men også globale maktaktører, og leverer alt fra fiber, datasentre, skytjenester og operativsystemer, både i privat og offentlig sektor i Norge.</p>



<p><em>Tekoligark</em> var årets nyord i 2025. Begrepet viser til en ny maktkonsentrasjon der økonomisk, teknologisk og politisk innflytelse smelter sammen. Mange av teknologiselskapene har tette bånd til Trump-administrasjonen og liker ikke reguleringer som står i veien for kommersiell handlefrihet.</p>



<p>Det kommer stadig nye eksempler på hvilke konsekvenser dette har i praksis. Da Microsoft stengte e-postkontoen til sjefsanklageren i Den internasjonale straffedomstolen (ICC), ble mange europeiske land minnet om hvor sårbare vi er. Utestengelsen skjedde etter amerikanske sanksjoner mot domstolen, som følge av arrestordre mot statsminister Netanyahu og andre israelske tjenestemenn for påståtte krigsforbrytelser i Gaza.</p>



<p>I Kina, den andre teknologiske stormakten i verden, kan myndighetene pålegge kinesiske selskaper å dele personopplysninger med dem. Diskusjonen om de hundrevis av kinesiskproduserte bussene som kjører rundt i Norge er også illustrerende. Busser utgjør kritisk infrastruktur i for eksempel evakueringssituasjon – og spørsmålet som er reist er om disse kan fjernstyres eller settes ut av drift av produsenten.</p>



<h2 class="wp-block-heading">Europeiske verdier under press</h2>



<p>Personopplysningene våre befinner seg midt oppi det hele. De er tett vevd inn i tjenestene og den digitale infrastrukturen som kan utnyttes, enten til angrep, overvåking, påvirkning eller manipulering av informasjon.</p>



<p>Som et lite og sårbart land har Norge en lang tradisjon for å støtte opp under en regelbasert verdensorden. For å møte en fremtid som utfordrer denne tradisjonen ser vi et tydelig behov for å vurdere graden av kontroll vi har over teknologisk infrastruktur og dataene som flyter i den.</p>



<p>Personvernregelverket i Europa er ikke bare er et vern for den enkelte, men også et uttrykk for europeiske verdier og strategiske interesser. Kravene til dataminimering, rutiner og informasjonssikkerhet styrker den digitale beredskapen i norske virksomheter så vel som samfunnet som helhet. Godt personvern i norske virksomheter styrker samfunnets evne til å stå imot press, påvirkning og digitale angrep.</p>



<h2 class="wp-block-heading">Personvern som kollektivt vern</h2>



<p>I dagens sikkerhetspolitiske situasjon må personvern forstås som en integrert del av Norges totalberedskap. Skal Norge lykkes i Totalforsvarsåret 2026, må personvern, regulering og digital infrastruktur ses i sammenheng – som en del av vårt kollektive vern.  Vi mener det er på tide å få på plass en helhetlig nasjonal plan for digital suverenitet som forener og balanserer innovasjon, sikkerhet og personvern.</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2026/01/28/personvern-er-beredskap-i-en-urolig-verden/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Digitaliseringsparadokset</title>
    <link>https://www.personvernbloggen.no/2025/05/21/digitaliseringsparadokset/</link>
    <comments>https://www.personvernbloggen.no/2025/05/21/digitaliseringsparadokset/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2022/10/cropped-20220805_datatilsynet_line_coll_021-kvadr-200x200.jpg</avatar>
    <pubDate>Wed, 21 May 2025 09:13:32 +0000</pubDate>
    <dc:creator><![CDATA[Line Coll]]></dc:creator>
    		<category><![CDATA[Digital masseovervåking]]></category>
		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[Digitalt grenseforsvar]]></category>
		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[Politi og justis]]></category>
		<category><![CDATA[Sosiale medier]]></category>
		<category><![CDATA[Teknologi]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=4062</guid>
    <description><![CDATA[I prosessen med å bli verdens mest digitaliserte land risikerer vi å få verdens mest overvåkede innbyggere. Innlegget er skrevet av direktør Line Coll og juridisk spesialrådgiver Jan Henrik Nielsen. ]]></description>
        <content:encoded><![CDATA[
<p><em>Innlegget er skrevet av Datatilsynets direktør Line Coll og juridisk spesialrådgiver Jan Henrik Mjønes Nielsen. Det sto først «på trykk» på <a href="https://www.altinget.no/artikkel/digitalisering-truer-personvernet" target="_blank" rel="noreferrer noopener">altinget.no 14. mai 2025.</a></em></p>



<p><strong>I prosessen med å bli verdens mest digitaliserte land risikerer vi å få verdens mest overvåkede innbyggere.</strong></p>



<p>I den norske debatten om personvern vises det gjerne til USA eller Kina når det er behov for eksempler på ukontrollert og inngripende overvåking. Nå holder det å se til våre naboland &nbsp;for å finne disse eksemplene.</p>



<p>Hva skjer når du digitaliserer en velferdsstat og åpner døren på gløtt for de statlige etterretningstjenestene?</p>



<h2 class="wp-block-heading">Svensken og dansken</h2>



<p>Mye av grunnen til at velferdsstater som Norge, Sverige og Danmark fungerer godt, er at de har tilgang til store mengder digitaliserte data. Norge har mange statlige registre blant annet knyttet til helse, utdanning, arbeid, inntekt, velferdsytelser, straff, skatt og eiendom. Dette gjør det lettere å levere gode tjenester til innbyggerne. Men det har også en risiko. I en gjennomdigitalisert stat ligger potensialet for masseovervåking.</p>



<p>I Danmark pågår det nå en <a href="https://politiken.dk/danmark/art10349346/PET-skal-have-lov-til-at-masseoverv%C3%A5ge-danskere-uden-mistanke">omfattende diskusjon om et nytt lovforslag.</a> Forslaget gir etterretningstjenesten PET lov til å lage en analyseplattform der de kan samle data fra offentlige registre. Det kan for eksempel være informasjon om sykehusbesøk, kontakt med psykiatrien og sosialtjenester. De skal også kunne hente inn data fra sosiale medier – som hva folk skriver, liker og deler – og følge med på hvordan folk beveger seg på internett og i virkeligheten.</p>



<p>Ved hjelp av kunstig intelligens skal PET finne mønstre og peke på mistenkelig atferd. Mange er bekymret for at dette gjør at alle blir behandlet som potensielle mistenkte. Det kan føre til frykt for å ytre seg, og påvirke folks forhold og tilgang til velferdstjenester. Koplingen mellom registre, kunstig intelligens og overvåking er noe Danmark også tidligere har blitt kritisert for, blant annet i en <a href="https://www.amnesty.org/en/latest/news/2024/11/denmark-ai-powered-welfare-system-fuels-mass-surveillance-and-risks-discriminating-against-marginalized-groups-report/">rapport fra Amnesty</a>.</p>



<p>I Sverige er det også snakk om mer overvåkning. Der ønsker myndighetene å gi sikkerhetstjenestene <a href="https://www.svt.se/nyheter/inrikes/it-experten-man-vill-komma-at-kriminella-men-laglydiga-straffas" target="_blank" rel="noreferrer noopener">økt mulighet til å overvåke internettrafikk</a> og pålegge meldingsapper å opprette en bakdør for å oppheve kryptering. &laquo;Nasjonal sikkerhetslagring&raquo; innebærer omfattende innsamling av borgernes datatrafikk ved behov. Målet er å bekjempe digital kriminalitet, men innsamlingen vil omfatte vanlige, lovlydige borgere.</p>



<p>Det er fristende å bruke informasjon som allerede er samlet inn til nye formål. Vi ser denne tendensen også i Norge.</p>



<h2 class="wp-block-heading">Nye holdninger til bruk og deling av data setter personvernet under press i Norge</h2>



<p>Fra fødsels- til dødsmelding, registreres norske borgere i utallige registre og vårt livsløp dokumenteres fra fosterstadiet på helsestasjonen, videre i barnehagen, skolen, helsetjenesten, arbeidslivet og NAV. Vi gir fra oss informasjon til staten som nødvendig ledd i å motta diverse tjenester og velferdsgoder. Opprinnelig har informasjonen vært organisert som små «øyer» i offentlig sektor, og kun vært brukt til det formålet som den ble samlet inn for. Men endringer har skjedd. I vår digitaliseringsiver har vi tilpasset oss en ny måte å forholde oss til data på: den har ofte stor verdi utenfor det opprinnelige formålet. Alle offentlige data anses mer og mer som et statlig felleseie.</p>



<p>Lisa Reutter, som er ekspert på datadrevet offentlig sektor, satte ord på det optimistiske forholdet vårt til offentlige data <a href="https://www.datatilsynet.no/regelverk-og-verktoy/personvernpodden/ingenting-a-skjule/3-ingenting-a-skjule-registerovervaking/" target="_blank" rel="noreferrer noopener">i en episode av Datatilsynets podkast</a>: «Vi holder data atskilt slik at opplysninger samlet inn i én kontekst ikke skal ha noe å si i en annen. Men ideen om data som en muliggjørende teknologi, bidrar til å flytte grensene for hva vi aksepterer og synes er greit».</p>



<h2 class="wp-block-heading">Sammenstilling av data skaper uklarheter</h2>



<p><a href="https://www.altinget.no/emne/1297">På Altinget har det i den siste tiden pågått en debatt om de såkalte individdataregistrene</a>. De forslåtte registrene skal samle mye informasjon om barn i skole og barnehage – som fravær, prøveresultater, spesialundervisning, språkopplæring, foreldrenes bakgrunn og økonomisk situasjon. Disse opplysningene skal igjen kobles med data om foreldre og barnets videre liv, som utdanning, jobb, inntekt og helse, samt foreldrenes livsløp. Forskningen på registrene skal benyttes som kunnskapsgrunnlag for å skape en bedre skole. Datatilsynet har advart mot at store og sammenkoblede registre innebærer en endret maktbalanse mellom myndighetene og enkeltindividet, noe som kan påvirke tilliten til statlige myndigheter negativt.</p>



<p><a href="https://www.datatilsynet.no/regelverk-og-verktoy/lover-og-regler/avgjorelser-fra-datatilsynet/2023/forbud-mot-behandling-av-personopplysninger-for-ssb/" target="_blank" rel="noreferrer noopener">Forbudet vårt mot Statistisk sentralbyrå (SSB)</a> sin planlagte innsamling av data fra den norske befolkningens dagligvarekjøp i 2023 var et eksempel på det samme. Ideen om å koble bongdata opp mot sosioøkonomiske data slik som husholdningstype, inntekt og utdanningsnivå, var noe vi mente var et uforholdsmessig inngrep i norske borgeres privatliv.</p>



<p>Dette kommer i tillegg til utvidelsene av justismyndighetenes overvåking av borgerne de siste årene, med blant annet lagring av IP-adresser, passasjeropplysninger, Etterretningstjenestens overvåking av internettrafikk og senest PSTs hjemler til å overvåke åpne kilder. Når store deler av kommunikasjonen og kunnskapsinnhentingen vår skjer på digitale plattformer, vil summen av data som samles inn av offentlige og private aktører medføre et stort overvåkingspotensial. Ekstra bekymringsfullt er det når <a href="https://eos-utvalget.no/wp-content/uploads/2023/06/EOS-utvalgets-arsmelding-for-2022.pdf">etterretningstjenester kjøper metadata</a> fra apper på det uregulerte markedet, og når Kripos <a href="https://juristen.no/nyheter/2023/02/arkivverket-hjelper-politiet-med-slektsgransking">vil bruke private slektsdatabaser</a> i etterforskning.</p>



<p>Alt dette bidrar til å skape uklarhet som forsterker de negative effektene av overvåking og kan svekke personvernet ved at legges press på å utforme tjenester med svakere beskyttelse. Alt dette ble på dramatisk vis satt på spissen i debatten og snuoperasjonen knyttet til sivilbeskyttelsesloven. En situasjon hvor personvernlovgivningen settes til side kan få alvorlige konsekvenser for samfunnet. Det å innføre økte kontrolltiltak på for eksempel internett eller ansiktsgjenkjenning i det offentlige rom vil innebære en svekkelse av sivilsamfunnet. Kontrollmekanismer blir også satt under press i krisesituasjoner. Det er ingen tvil om at Datatilsynet opplevde det svært krevende å si nei til Smittestopp-appen under Covid.</p>



<h2 class="wp-block-heading">Overvåkingspotensialet i en gjennomdigitalisert stat</h2>



<p>At hvert enkelt tiltak kan aksepteres som et nødvendig inngrep i personvernet, kan isolert sett fremstå tilforlatelig. Advokatforeningen har <a href="https://www.dagbladet.no/meninger/jeg-vil-svekke-rettsstaten-gi-meg-en-hjemmel/82674856" target="_blank" rel="noreferrer noopener">i en kronikk</a> påpekt dilemmaet under overskriften «Jeg vil svekke rettsstaten &#8211; gi meg en hjemmel!». Det at nye tiltak hjemles, begrenser ikke nødvendigvis skadevirkningene av selve inngrepet. Mulighetene og hjemlene for sammenkobling av ulike offentlige registre eller private datasett gjør uforutsigbarheten for den enkelte desto større.</p>



<p>Det er godt dokumentert at økt overvåkingstrykk påvirker vår ytre frihet, hvordan vi lever, kommuniserer og bruker tjenester. Enda mer bekymringsfullt er at den også truer vår indre frihet – mange begynner å føle seg overvåket hele tiden. Det er ikke uten grunn at den nye KI-forordningen forbyr bruk av kunstig intelligens som manipulerer folk til å gjøre ting de ellers ikke ville gjort.</p>



<p>Datatilsynet vil advare mot et samfunn hvor all offentlig informasjon og private data samles og gjøres tilgjengelig for nye formål og bruksområder. Et demokrati kjennetegnes ved at det er borgerne som kontrollerer staten, ikke motsatt. Norge, Sverige og Danmark ligger fortsatt <a href="https://www.eiu.com/n/democracy-index-2024/" target="_blank" rel="noreferrer noopener">på topp på internasjonale demokratiindekser</a>, men vi kan ikke ta slike målinger for gitt. Det fremstår som et paradoks at suksessen til de skandinaviske velferdsstatene – å bruke store mengder data til å levere gode velferdstjenester – kan gjøre oss ekstra sårbare.</p>



<p>Det kan være fristende å se til våre naboland når vi utformer politikk som skal løse fremtidens utfordringer. Men uansett om målet er velferd, forskning eller sikkerhet, er det viktig at politikerne er bevisst det enorme overvåkingspotensialet som ligger i en heldigital og gjennomregistrert stat.</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2025/05/21/digitaliseringsparadokset/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Datadeling og personvern – la oss løse utfordringene sammen</title>
    <link>https://www.personvernbloggen.no/2025/03/26/datadeling-og-personvern-la-oss-lose-utfordringene-sammen/</link>
    <comments>https://www.personvernbloggen.no/2025/03/26/datadeling-og-personvern-la-oss-lose-utfordringene-sammen/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2022/10/cropped-20220805_datatilsynet_line_coll_021-kvadr-200x200.jpg</avatar>
    <pubDate>Wed, 26 Mar 2025 09:34:52 +0000</pubDate>
    <dc:creator><![CDATA[Line Coll]]></dc:creator>
    		<category><![CDATA[Dataanalyse]]></category>
		<category><![CDATA[Datadeling]]></category>
		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[Planer og strategier]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=4032</guid>
    <description><![CDATA[Det er viktig å finne en balanse mellom personvern og behovet for datadeling. Datatilsynet har som oppgave å sikre at personvernlovgivningen etterleves, og dette er et regelverk med et klart handlingsrom og som absolutt ikke krever nullrisiko. Formålet med regelverket er å nettopp legge til rette for bruk og deling av data – innenfor trygge rammer.]]></description>
        <content:encoded><![CDATA[
<p><em>Dette innlegget ble først <a href="https://www.digi.no/artikler/debatt-vi-skal-bli-verdens-best-digitaliserte-land/557067" target="_blank" rel="noreferrer noopener">publisert på digi.no 24. mars 2025.</a></em></p>



<p>Yngve Milde og Elias Meling belyser en rekke utfordringer knyttet til datadeling i Norge <a href="https://www.digi.no/artikler/debatt-vi-slar-alarm-om-datadelingen-i-norge/556798" target="_blank" rel="noreferrer noopener">i sitt innlegg i Digi.no</a>. De peker blant annet på at en streng tolkning av personvernregler kan hindre effektiv datadeling, noe som igjen kan forsinke digitaliseringen av offentlige tjenester. De mener at Datatilsynet oppleves som «et organ som setter terskelen for akseptabel risiko så høyt at det for mange oppleves som nullrisiko».</p>



<p>Det er viktig å finne en balanse mellom personvern og behovet for datadeling. Datatilsynet har som oppgave å sikre at personvernlovgivningen etterleves, og dette er et regelverk med et klart handlingsrom og som absolutt ikke krever nullrisiko. Formålet med regelverket er å nettopp legge til rette for bruk og deling av data – innenfor trygge rammer.</p>



<p>Slik vi ser det er personvern ikke en hindring, men en ressurs for å sikre forsvarlig digitalisering. Datatilsynet jobber hver dag for at regelverket praktiseres på en måte som legger til rette for innovasjon og utvikling, innenfor de rammene loven gir.​ Vi har både prosjekter i den regulatoriske sandkassen og løpende veiledning som går helt i kjernen av dette. Hvert år har vi over 5000 veiledningssamtaler der vi gir råd i håndtering av regelverket. Vi kjenner oss derfor ikke igjen i Mildes og Melings påstander om at vi utelukkende hindrer datadeling og er ute etter nullrisiko-løsninger.</p>



<p>Vår visjon er at vi skal jobbe sammen for menneskeverd og tillit i det digitale Norge. I dette ligger det at også Datatilsynet skal være med på den utviklingen Norge og samfunnet må ha, for å løse tidens og fremtidens utfordringer. Vi er imidlertid ikke så opptatt av at Norge skal bli verdens <em>mest</em> digitaliserte land innen 2030 – vi vil heller at Norge skal bli verdens <em>best</em> digitaliserte land.</p>



<p>Vi ønsker derfor debatten om datadeling velkommen. Den er viktig for å komme videre, og skape en bedre gjensidig forståelse av utfordringene og hvordan vi skal nå målet. Verken forsiktighetskultur og nullrisiko eller for stor risikoappetitt er positivt. Flere faktorer spiller inn i mulighetsbildet: Både intern kultur, kompetanse, datakvalitet, tekniske løsninger og jussen kan legge begrensninger for datadeling. Det må også konkretiseres hvilke datakilder man ønsker å dele fra og mellom, for å gjøre gode vurderinger av behov, hindringer og løsninger. For å avklare faktiske hindringer trenger vi flere konkrete eksempler og en mer nyansert debatt om balansegangen mellom personvern og datadeling.</p>



<p>I samarbeid med Finanstilsynet utforsker vi nå fem sandkasseprosjekter innen finanssektoren, der målet er å bekjempe økonomisk kriminalitet gjennom trygg og lovlig datadeling. Vår erfaring viser at veiledning fungerer best når vi jobber med faktiske problemstillinger, hvor personvern er med fra start. Vi ønsker derfor at flere bransjer kommer sammen, identifiserer spesifikke utfordringer og tar dem opp med oss i Datatilsynet.</p>



<p>Ansvarlig datadeling er et av Datatilsynets hovedfokusområder. Vårt arbeid må alltid skje innenfor rammene av personvernforordningen (GDPR), som er et felles europeisk regelverk som Norge er forpliktet til å etterleve. Samtidig er det alltid et tolkningsrom i regelverk, og dette rommet er vi i Datatilsynet opptatt av å utforske. Rettsutvikling er imidlertid en prosess som tar tid – saker må behandles, eventuelt overprøves, og i noen tilfeller kan det være behov for nye lover eller forskrifter, noe som er lovgivers ansvar. Nødvendig og etterspurt rettsutvikling er også avhengig av saker som rommer problemstillinger hvor det er behov for endring.</p>



<p>For å sikre best mulig digitalisering i Norge må vi finne løsninger sammen. Vi inviterer derfor næringslivet, offentlig sektor og bransjeaktører til å delta i vår regulatoriske sandkasse og dialogbaserte veiledning. Vi ønsker saker om datadeling, slik at vi sammen kan finne måter å realisere digitaliseringsgevinster uten at personvernet svekkes. La oss ta debatten fra teori til praksis.</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2025/03/26/datadeling-og-personvern-la-oss-lose-utfordringene-sammen/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>En reklamefri skole uten sporing skulle vel bare mangle?</title>
    <link>https://www.personvernbloggen.no/2023/09/11/en-reklamefri-skole-uten-sporing-skulle-vel-bare-mangle/</link>
    <comments>https://www.personvernbloggen.no/2023/09/11/en-reklamefri-skole-uten-sporing-skulle-vel-bare-mangle/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2022/10/cropped-20220805_datatilsynet_line_coll_021-kvadr-200x200.jpg</avatar>
    <pubDate>Mon, 11 Sep 2023 08:37:03 +0000</pubDate>
    <dc:creator><![CDATA[Line Coll]]></dc:creator>
    		<category><![CDATA[Barn og unge]]></category>
		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[Forbrukerrettigheter]]></category>
		<category><![CDATA[Personvernpolitikk]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3853</guid>
    <description><![CDATA[Denne bloggen er opprinnelig et innlegg som ble sendt inn i tilknytning til debatten om reklame i skole som har gått på NRK Ytring (nrk.no). De valgte dessverre å ikke publisere vårt tilsvar til Tonje Brenna, men det kan leses i sitt hele her. Innlegget er signert sammen med forbrukerdirektør Inger Lise Blyverket. Budskapet i [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p><em>Denne bloggen er opprinnelig et innlegg som ble sendt inn i tilknytning til <a href="https://www.nrk.no/ytring/vi-ma-styrke-var-digitale-trygghet-1.16522578" target="_blank" rel="noreferrer noopener">debatten om reklame i skole som har gått på NRK Ytring (nrk.no).</a> De valgte dessverre å ikke publisere vårt tilsvar til Tonje Brenna, men det kan leses i sitt hele her. Innlegget er signert sammen med forbrukerdirektør Inger Lise Blyverket. Budskapet i denne bloggen deles også på <a href="https://radio.nrk.no/serie/ekko/MDFP02014523" target="_blank" rel="noreferrer noopener">NRK Ekko mandag 11. september</a> som tematiserer reklame i skolen.</em></p>



<p>Barn skal aldri utsettes for ulovlig eller skadelig reklame gjennom skolens læremidler, skriver Tonje Brenna i replikken med tittel &laquo;Vi må styrke vår digitale trygghet&raquo; (henvist til over) til Kaja Hegg og Christian Falchs kronikk <a href="https://www.nrk.no/ytring/reklameskoledagen-1.16453701" target="_blank" rel="noreferrer noopener">Reklameskoledagen</a>. Brenna er ullen i sitt svar på hvordan regjeringen vil bidra nasjonalt. Igjen er det kommunenes selvstyre som skyves foran. Det er på tide at regjeringen viser muskler og tar ansvar for skolebarnas digitale hverdag. Barna våre har krav på beskyttelse.</p>



<p>Barn og unges skolehverdag er gjennomdigitalisert. Mange barn får utdelt hvert sitt læringsbrett allerede i første klasse. Brettet brukes flittig i både undervisning og oppfølging, og barna har tilgang til all verdens apper og programvarer. Det er ingen hemmelighet at det er de internasjonale teknologiselskapene som leverer flere av disse verktøyene. Skolene og kommunene har begrenset kompetanse og liten forhandlingsmakt når de inngår avtaler, og dermed liten påvirkning på innsamlingen av personopplysninger knyttet til verktøyene gjennom slike avtaler.</p>



<p>Skolen er et attraktivt marked for markedsførere, fordi det gir mulighet til å etablere tidlige forbrukerrelasjoner med elevene. <a href="https://www.regjeringen.no/no/tema/statlig-forvaltning/personvern/personvernkommisjonens-rapport/id2938166/" target="_blank" rel="noreferrer noopener">Personvernkommisjonens rapport</a> fremhever alvoret. Den beskriver en skolehverdag der barn fra tidlig alder blir eksponert for reklame, for eksempel for slankepiller. Brenna sier også selv at skjermbruk og digitale plattformer påvirker helse, læring, livskvalitet og oppvekst.</p>



<p>Hvorfor viser hun bare nok en gang til strategier og at de «arbeider med å se nærmere på problemstillingene rundt barn og unges skjermbruk» når det er nødvendig med øyeblikkelige tiltak?</p>



<p>Det kreves handling, ikke bare planer og utredninger. Kommunene er tydelige på at de selv ikke har kompetanse til å vurdere det digitale utstyret før det kjøpes inn og tas i bruk. Både kommunene selv, vi og mange andre – også <a href="https://www.regjeringen.no/no/aktuelt/ny-rapport-om-digital-laringsanalyse/id2916673/" target="_blank" rel="noreferrer noopener">Regjeringens egne ekspertutvalg</a> – etterlyser en tydelig sentral styring på personvernarbeidet i skolesektoren. Det vet Brenna, og det er også nøye adressert i Personvernkommisjonens rapport.</p>



<p>En av anbefalingene i kommisjonens rapport er å vurdere å innføre annonseblokkeringsverktøy eller andre tiltak på elevenes utstyr for å redusere elevenes eksponering mot uønsket reklame. Dette er et enkelt grep som i tillegg vil kunne bidra til å redusere noe av sporingen av elevenes digitale aktivitet til kommersielle formål. Det nærmer seg nå et år siden denne anbefalingen ble gitt, uten at vi kan se at noe konkret har skjedd. Er det egentlig et valg om å ikke lytte til anbefalingen fra kommisjonen når vi ser hvordan barn og unges personvern i skolen er under press?</p>



<p>Vi mener sentrale aktører fra både offentlig og privat sektor, med kunnskapsminister Tonje Brenna i spissen, må gå sammen og handle. Norge trenger en nasjonal og handlekraftig personvernpolitikk med konkrete tiltak for å sikre reklamefri skole. Vi trenger den nå.</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2023/09/11/en-reklamefri-skole-uten-sporing-skulle-vel-bare-mangle/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Vurdering av personvernkonsekvenser i lovprosessen</title>
    <link>https://www.personvernbloggen.no/2023/06/19/personvernkonsekvensvurdering-i-lovprosessen/</link>
    <comments>https://www.personvernbloggen.no/2023/06/19/personvernkonsekvensvurdering-i-lovprosessen/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2022/10/cropped-20220805_datatilsynet_line_coll_021-kvadr-200x200.jpg</avatar>
    <pubDate>Mon, 19 Jun 2023 13:46:25 +0000</pubDate>
    <dc:creator><![CDATA[Line Coll]]></dc:creator>
    		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[Lovgivning]]></category>
		<category><![CDATA[Offentlig forvaltning]]></category>
		<category><![CDATA[Personvernforordningen (GDPR)]]></category>
		<category><![CDATA[Personvernpolitikk]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3823</guid>
    <description><![CDATA[Uten en oversikt over personvernkonsekvensene av et lovforslag, er det svært vanskelig for Stortinget å sørge for at innbyggernes personvern er ivaretatt. Denne teksten er utdrag fra et foredrag jeg holdt under Lovkonferansen i juni 2023. Norge er et av verdens mest digitaliserte samfunn. Det er positivt og viktig for utviklingen av Norge. Digitalisering gjør [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p><strong>Uten en oversikt over personvernkonsekvensene av et lovforslag, er det svært vanskelig for Stortinget å sørge for at innbyggernes personvern er ivaretatt.</strong></p>



<p><em>Denne teksten er utdrag fra et foredrag jeg holdt under <a href="https://www.jus.uio.no/forskning/prosjekter/klarsprak/arrangementer/konferanser/lovkonferanse/2023/index.html" target="_blank" rel="noreferrer noopener">Lovkonferansen</a> i juni 2023.</em></p>



<p>Norge er et av verdens mest digitaliserte samfunn. Det er positivt og viktig for utviklingen av Norge. Digitalisering gjør oss for eksempel i stand til å løse samfunnsoppdrag innen helse og omsorg i en situasjon hvor varme hender vil være mangelvare.</p>



<p>Men digitalisering skjer ofte på bekostning av retten til en privatsfære og et personopplysningsvern.</p>



<p>Det slo også Personvernkommisjonen fast i sin rapport – hvor nettopp dette var ett av hovedfunnene. Omtrent 5 år etter GDPR trådte i kraft, har vi altså en utvikling hvor vi har et svekket personvern sammenlignet med tidligere tider som følge av digitaliseringen av samfunnet.</p>



<h2 class="wp-block-heading">En gradvis svekkelse av personvernet</h2>



<p>Byggesteinene i den datadrevne økonomien er i stor grad personopplysninger. Dagens digitale samfunn åpner opp for enorme muligheter, men også noen farer.</p>



<p>Personvernkommisjonen peker i sin rapport på at utvikling og innføring av ny teknologi skjer raskt og uten at vi alltid har full oversikt over konsekvensene. Kontroversiell og inngripende teknologi blir fort normalisert og allment akseptert. Dette medfører en gradvis svekkelse av personvernet. En slik svekkelse kan være vanskelig å få øye på før det er for sent å motvirke de negative effektene.</p>



<p>Hvorvidt vi makter å treffe den riktige balansen mellom mulighetene ved digitalisering og ulempene i form av tilsidesatte grunnleggende rettigheter og samfunnsverdier, vil bli avgjørende for hvilket samfunn vi skaper sammen.</p>



<p>En åpen, opplyst samtale og politisk fokus og effektive rettssikkerhetsmekanismer er grunnleggende for å motvirke den negative utviklingen med at personvernet settes til side.</p>



<h2 class="wp-block-heading">Avveininger hele veien</h2>



<p>Hvilke mekanismer har vi som samfunn til å ivareta personvernet og løpende finne den riktige avveiningen mellom digitalisering og innovasjon, utvikling, og ivaretagelse av våre grunnleggende rettigheter?</p>



<p>Her er det fristende å trekke frem flere mekanismer eller virkemidler:</p>



<ul class="wp-block-list">
<li>En åpen, opplyst samtale om denne avveiningen og denne utviklingen er ett virkemiddel</li>



<li>Personvernpolitikk er et annet – dersom Stortinget fikk en rapport om personvernets stilling hvert år</li>



<li>Et sterkt og tydelig tilsynsorgan er jo også et virkemiddel i seg selv</li>



<li>Og til sist – dagens tema – selve lovgivningsprosessen vi har i Norge i dag.</li>
</ul>



<h2 class="wp-block-heading">Lovgivningsprosessen som demokratisk verdi</h2>



<p>Lovgivningsprosessen starter på litt ulike måter, og ender opp med at departementet skriver forslaget til en lov. &nbsp;Så blir dette forslaget sendt på høring.</p>



<p>Denne delen av lovgivningsprosessen har stor demokratisk verdi. Det er en grunnsten i vårt system at lovforslag og endringer skal høres i en demokratisk prosess.</p>



<p>Datatilsynet har imidlertid erfart at en slik høring ikke alltid er tilstrekkelig og eller gir de nødvendige rettssikkerhetsgarantiene som vi trenger.</p>



<p>Vi har for eksempel sett at lovforslag som hjemler store inngrep i borgernes personvern ofte ikke er utredet godt nok til at Stortinget blir kjent med konsekvensene av lovene de vedtar.</p>



<p>Uten en oversikt over personvernkonsekvensene av et lovforslag, er det svært vanskelig for Stortinget å sørge for at innbyggernes personvern er ivaretatt.</p>



<p>Stortinget settes som en følge av dette ikke i stand til å gjøre godt informerte verdivalg. Utfordringen kan deles opp i følgende punkter, som utdypes nedenfor:</p>



<ul class="wp-block-list">
<li>Mangelfull og nærmest fraværende <em>forhåndsutredning</em> av personvernkonsekvenser (som er pålagt etter GDPR artikkel 35 og 36)</li>



<li>Høringsnotater kommer ofte sent, og inneholder mangelfull og krevende beskrivelse av hvordan lovforslag påvirker personvernet</li>



<li>Mangelfull oppfølging av høringssvar</li>



<li>Fullmaktslovgivning som en trussel mot personvernet i dagens samfunn</li>
</ul>



<h2 class="wp-block-heading">Mangelfull og nærmest fraværende <em>forhåndsutredning</em> av personvernkonsekvenser.</h2>



<p>Etter personvernforordningen artikkel 36 nr. 4 skal medlemsstatene rådføre seg med tilsynsmyndigheten på personvernområdet ved utarbeidelse av forslag til lovgivning, eller et reguleringstiltak som er knyttet til behandling av personopplysninger. Sett i sammenheng med artikkel 36 for øvrig, vil rådføringen trolig kun være nødvendig i tilfeller hvor behandlingen medfører høy risiko for de registrertes rettigheter og friheter.</p>



<p>Det følger altså av personvernforordningen en særskilt rådføringsplikt når det er snakk om behandling av personopplysninger som innebærer høy risiko for rettigheter og friheter.</p>



<p>Mange av dagens lovprosesser omfattes trolig av dette kriteriet.</p>



<p>Datatilsynet har fått svært få slike henvendelser om rådføring i forbindelse med lovgivningsarbeidet etter 2018. Det er heller ikke satt i noe godt system at slike konsekvenser skal utredes på forhånd og at rådføring skal gjennomføres, så vidt vi erfarer.</p>



<p>Personvernkommisjonen peker på at den rådføringsplikten som følger av personvernforordningen ikke kan anses som oppfylt ved at Datatilsynet er høringsinstans i forbindelse med en ordinær offentlig høringsprosess.</p>



<p>Plikten til rådføring med tilsynsmyndigheten under et regelverksarbeid kan altså, verken tematisk eller prosessuelt, likestilles med offentlig høring av et lov- eller forskriftsforslag.</p>



<p>Det at vi ikke får slike henvendelser, indikerer etter vår oppfatning en klar svakhet ved dagens lovgivningsprosess.</p>



<h2 class="wp-block-heading">Høringsnotater kommer ofte sent</h2>



<p>Det er også ofte for sen, mangelfull og krevende beskrivelse av hvordan lovforslag påvirker personvernet i samfunnet i høringsnotater. <em></em></p>



<p>Stortingets mulighet til å gjøre avveininger mellom ulike samfunnshensyn, herunder personvern, er betinget av at de ulike hensynene er godt beskrevet og synliggjort.</p>



<p>Vurderingen av om et inngrep i personvernet skal vedtas må baseres på en fremstilling – i for eksempel høringsnotatet – av blant annet formålet med lovforslaget og hvilke konsekvenser behandlingen av personopplysninger medfører.&nbsp;&nbsp;</p>



<p>Vår erfaring er at det også her gjøres for lite for å kartlegge og beskrive konsekvensene av en lov eller forskrift, i forhold til hvilke konsekvenser den får for personvernet i samfunnet.</p>



<p>Det er også en observasjon fra vår side måten inngrepene og konsekvensene beskrives på, er med på å undergrave den totale effekten av tiltakene man ønsker lovregulert. Man beskriver for eksempel ett og ett punkt, og svarer ut fortløpende med beskrivelse av avhjelpende tiltak. Som en følge av denne måten å fremstille lovforslaget og effektene på, blir det vanskeligere for Stortinget og andre å få med seg det totale og komplette bildet.</p>



<p>Dette er etter vår mening en klar svakhet ved hvordan høringer i dag gjennomføres, og som i seg selv innebærer en risiko for tilsidesettelse av personvernet.</p>



<h2 class="wp-block-heading">Mangelfull oppfølging av høringssvar</h2>



<p>Det er ofte ikke så lett å se resultatene av høringsinnspill som er gitt. Selv om vi roper varsku med utestemme og blokkbokstaver, så skjer det ikke alltid noe.&nbsp;</p>



<p>I 2021 besvarte Datatilsynet 49 av totalt 151 høringer som gjaldt offentlige myndigheters behandling av personopplysninger og som hadde betydning for personvernet.&nbsp; Av disse mente vi at utredningen av personvernkonsekvenser var mangelfull eller fraværende i 30 av tilfellene, altså 60 %. Hvordan våre høringsinnspill ble imøtekommet, er det krevende å få en oversikt over.</p>



<h2 class="wp-block-heading">Fullmaktslovgivning som en trussel mot personvernet</h2>



<p>Det er ikke mangler ved høringsinstituttet som er utfordringen – men snarere valg av lovsform.</p>



<p>Rammene for behandling av personopplysninger settes ofte i forbindelse med vedtakelse av lover som inneholder generelt utformede bestemmelser med forskriftshjemmel.</p>



<p>I slike tilfeller fastsettes kun de helt ytre rammene – hvis rammene fastsettes i det hele tatt – for tiltaket i loven, mens detaljene skal reguleres nærmere i forskrift. Dette i motsetning til tilfellene der inngrepet i personvernet fremgår klart av selve loven idet den vedtas.</p>



<p>Bruken av fullmaktslovgivning, hvor vurderingen (og gjennomføringen) av selve inngrepet i personvernet blir lagt til underliggende etater eller virksomheter, er en risiko i seg selv.</p>



<p>Vi ser altså slik fullmaktslovgivning som en klar trussel mot personvernet i dagens samfunn.</p>



<p>Våre erfaringer er at makten til å gjøre store inngrep i innbyggernes fundamentale rettigheter, flyttes fra de folkevalgte til forvaltningen.</p>



<p>Et illustrerende eksempel på dette er vedtaket vi nylig fattet i saken mot SSB, hvor de ønsket å innhente bongdata fra dagligvarebransjen med hjemmel i et enkeltvedtak fattet av dem selv.</p>



<h2 class="wp-block-heading">Personvernkonsekvensene må frem</h2>



<p>De forholdene jeg har fremhevet, innebærer en risiko for at det åpnes for uforholdsmessig store inngrep i personvernet uten at Stortinget er gjort tilstrekkelig oppmerksom på det og at helt sentrale rettssikkerhetsgarantier forvitrer.</p>



<p>Snarere er det regelen heller enn unntaket at personvernkonsekvensene som de folkevalgte skal vurdere er dårlige, mangelfulle og ofte feilaktig fremstilt.</p>



<p>Disse svakhetene ved lovgivningsprosessen settes enda mer på spissen når vi ser dette opp mot den digitale utviklingen- og revolusjonen vi står i nå.</p>



<p>Hvordan skal lovgiver og ansvarlige myndigheter kunne ta stilling til og ta ansvar for bruken av for eksempel kunstig intelligens satt opp mot personvern og andre grunnleggende rettigheter i samfunnet, når prosessene ikke tar høyde for både informasjonsbehovet og et tydelig og klart språk? </p>



<p>Det er viktig å anerkjenne utfordringene vi står ovenfor.</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2023/06/19/personvernkonsekvensvurdering-i-lovprosessen/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>GDPR: Fem år med spennende utfordringer &#8211; og litt magi</title>
    <link>https://www.personvernbloggen.no/2023/05/25/gdpr-fem-ar-med-spennende-utfordringer-og-litt-magi/</link>
    <comments>https://www.personvernbloggen.no/2023/05/25/gdpr-fem-ar-med-spennende-utfordringer-og-litt-magi/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2022/10/cropped-20220805_datatilsynet_line_coll_021-kvadr-200x200.jpg</avatar>
    <pubDate>Thu, 25 May 2023 07:13:17 +0000</pubDate>
    <dc:creator><![CDATA[Line Coll]]></dc:creator>
    		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[Personvernforordningen (GDPR)]]></category>
		<category><![CDATA[Personvernpolitikk]]></category>
		<category><![CDATA[Teknologi]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3815</guid>
    <description><![CDATA[Personvern er et praktisk fag. Alle norske virksomheter må, i en eller annen utstrekning, forholde seg til personvernregelverket – personvernforordningen (GDPR) og personopplysningsloven. Det å tilegne seg både grunnleggende kunnskap om selve regelverket og praktisk personvern gir derfor en svært relevant kompetanse. I dag, 25. mai 2023, feirer hele Europa at GDPR, eller personvernforordningen, er [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p><strong>Personvern er et praktisk fag. Alle norske virksomheter må, i en eller annen utstrekning, forholde seg til personvernregelverket – personvernforordningen (GDPR) og personopplysningsloven. Det å tilegne seg både grunnleggende kunnskap om selve regelverket og praktisk personvern gir derfor en svært relevant kompetanse.</strong></p>



<p>I dag, 25. mai 2023, feirer hele Europa at GDPR, eller<a href="https://www.datatilsynet.no/regelverk-og-verktoy/lover-og-regler/om-personopplysningsloven-og-nar-den-gjelder/" target="_blank" rel="noreferrer noopener"> personvernforordningen</a>, er fem år. Personvernforordningen trådte egentlig i kraft i EU den 24. mai 2016. Det var imidlertid først fra 25. mai 2018 at alle virksomheter i EU måtte følge reglene og tilsynsmyndighetene kunne begynne håndhevingen. For oss i Norge trådte personvernforordningen i kraft først den 20. juli 2018. Komplisert skal det være, men det som er sikkert er at vi feirer sammen med våre søstertilsyn i dag. Vi har hatt en bratt læringskurve. Regelverket er komplisert, og det har vært krevende både for virksomheter og tilsyn å sørge for best mulig etterlevelse. Heldigvis er det en større mening og verdi bak det hele: Personvern er en menneskerettighet vi ikke kan ofre for digitaliseringsiveren. Personvernet er i dag viktigere enn noen gang, som en grunnleggende forutsetning for vårt demokratiske samfunn. </p>



<h2 class="wp-block-heading"><strong>Men hva er egentlig personvern i dag?</strong></h2>



<p>Personvern handler om retten til et privatliv og retten til å bestemme over egne personopplysninger. Personvernkommisjonen uttaler følgende i sin rapport <a href="https://www.regjeringen.no/no/dokumenter/nou-2022-11/id2928543/" target="_blank" rel="noreferrer noopener">NOU 2022: 11 <em>Ditt personvern – vårt felles ansvar – Tid for en personvernpolitikk</em></a><em>, </em>på side 29:</p>



<p>«Personvern kan defineres og beskrives på ulike måter. Uansett hvilken innfallsvinkel du velger, står det enkelte menneskets ukrenkelighet og krav på respekt fra andre mennesker, virksomheter og myndigheter, respekt for egen integritet og privatlivets fred, sentralt. Personvern er derfor nært knyttet til enkeltindividers muligheter for privatliv, selvbestemmelse og selvutfoldelse. I tillegg kan personvernet sies å være et grunnleggende premiss for et fullverdig demokratisk samfunn».</p>



<p>Retten til personvern beskrives her som en absolutt forutsetning for et fullverdig demokrati. I dagens digitale samfunn og den teknologiske revolusjonen vi står midt oppi, er <em>personopplysningsvernet</em> helt sentralt for å ivareta grunnleggende personvern, integritet og privatlivets fred. I den digitale tidsalderen vi er i, trer nemlig <em>data</em> frem som det definerende symbolet på vekst, fremskritt og makt. Og byggesteinene i dagens digitale økonomi er i stor grad <em>personopplysninger</em>.</p>



<p>Personvern er ikke bare en viktig menneskerettighet som skal sikre hensynet til den enkeltes personlige integritet og privatliv. Personvern er også viktig for å sikre felles goder i et demokratisk samfunn. Uten retten til å ha et privatliv vil det ikke være mulig for den enkelte å skape seg et rom til å utvikle refleksjoner og vurderinger på et selvstendig grunnlag, uten å bli forstyrret eller kontrollert av andre.</p>



<h2 class="wp-block-heading"><strong>Intet personvern,&nbsp;intet demokrati</strong></h2>



<p>Personvernforordningen er et viktig og komplekst regelverk, som har løftet personvernet på alle områder av samfunnet. GDPR gir både private og offentlige virksomheter plikt til å sørge for grunnleggende personopplysningsvern for alle de behandler opplysninger om – det være seg ansatte, kunder, pasienter, brukere eller innbyggere. Den gir også enkeltindivider rettigheter som de behandlingsansvarlige, altså virksomhetene som behandler dine data, må møte.</p>



<p>Plikt- og rettighetsbestemmelsene i forordningen gir til sammen et omfattende regelvern for ivaretagelse av personvernet og personopplysningsvernet til enkeltindivider. På et mer overordnet nivå er summen av plikter og rettigheter med på å regulere samfunnets ivaretagelse av personvernet og personopplysningsvernet. Denne felles innsatsen er derfor et viktig fundament i det norske demokratiet. Intet personvern, intet demokrati.</p>



<h2 class="wp-block-heading"><strong>Krevende regelverk gir også magi</strong></h2>



<p>Innføringen av GDPR i 2018 var et vannskille for personvernet og personopplysningsvernet. Mange har dog erfart at regelverket kan være teoretisk og vanskelig tilgjengelig, og ikke minst krevende å omsette i praksis.&nbsp;</p>



<p>Magien skjer når du klarer å omsette personvernforordningen fra teoretisk lovtekst til operasjonelt og funksjonelt personvern. Jeg har ofte beskrevet det som en «oversetterjobb» &#8211; kravene som følger av lovteksten må omsettes til praktiske og gjennomførbare tiltak hos den behandlingsansvarlige. Slik er det til en viss grad med all lovtekst – den må tolkes og forstås opp mot en faktisk og praktisk virkelighet.&nbsp;Men for personvernregelverket kommer dette særlig på spissen, ettersom ansvarlighetsprinsippet medfører at det er den behandlingsansvarlige som må vurdere, velge og prioritere tiltak, og gjennomføre og dokumentere hvilke grep som sikrer etterlevelse i den konkrete virksomheten.</p>



<p>Veien fra lovtekst til personvern i praksis må læres. Med kunnskap om både lov og praksis, har du et godt grunnlag for å være med på å forstå en viktig grunnsten i det norske demokratiet.</p>



<p>Gratulerer med femårsdagen!</p>



<p></p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2023/05/25/gdpr-fem-ar-med-spennende-utfordringer-og-litt-magi/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Sandbox Experiments: controlled explosions</title>
    <link>https://www.personvernbloggen.no/2023/03/09/sandbox-experiments-controlled-explosions/</link>
    <comments>https://www.personvernbloggen.no/2023/03/09/sandbox-experiments-controlled-explosions/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2022/10/cropped-20220805_datatilsynet_line_coll_021-kvadr-200x200.jpg</avatar>
    <pubDate>Thu, 09 Mar 2023 14:55:30 +0000</pubDate>
    <dc:creator><![CDATA[Line Coll]]></dc:creator>
    		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[Teknologi]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3787</guid>
    <description><![CDATA[Dette er et utdrag av et innlegg som ble holdt av Datatilsynets direktør, Line Coll, i EU-parlamentet den 7. mars 2023. Anledningen var et seminar om &#171;EU AI Act&#187;, en ny forordning foreslått av EU-kommisjonen for å regulere kunstig intelligens. Coll snakket om erfaringer fra Datatilsynets sandkasse for kunstig intelligens. Innlegget ble holdt på engelsk, [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p><em>Dette er et utdrag av et innlegg som ble holdt av Datatilsynets direktør, Line Coll, i EU-parlamentet den 7. mars 2023. Anledningen var et seminar om &laquo;EU AI Act&raquo;, en ny forordning foreslått av EU-kommisjonen for å regulere kunstig intelligens. Coll snakket om erfaringer fra Datatilsynets sandkasse for kunstig intelligens. Innlegget ble holdt på engelsk, og vi publiserer innlegget på språket det ble holdt. </em></p>



<p><strong>In relation with the upcoming regulation of AI in the EU, by passing of the AI Act, the Norwegian Data Protection Authority was invited to the European Parliament and asked to give some reflections based on our experiences from our regulatory AI sandbox. This blogpost is an extract of the speech we gave.</strong></p>



<h2 class="wp-block-heading">Introduction</h2>



<p>We have been running a regulatory sandbox for AI since 2020, and based on our experience from this we can tell you one thing:</p>



<ul class="wp-block-list">
<li>Artificial intelligence can indeed be explosive!</li>



<li>AI is a power full tool, which can be technically explosive.</li>



<li>The technical side, however, goes hand in hand with the ethical and moral aspects of AI, and AI can be ethically explosive. We have seen AI that shortly after launch – we are talking hours – develops from being rather neutral to being extremely right wing political and discriminating.</li>



<li>The resent case in the Netherlands also showed us that AI can be politically explosive. The so-called child benefit scandal in the Netherlands, where the tax authorities used an algorithm to detect fraud, resulted in a large group of minority families wrongly being accused of fraud. This had of course dramatic consequences for the families involved. In addition, the case proved to be politically explosive as well, resulting in the government stepping down.</li>
</ul>



<p>The goal of our regulatory sandbox has been to promote the development of innovative and responsible AI solutions and to help Norwegian companies in both private and public sector in their development and application of ethical and privacy friendly AI solutions.</p>



<p>The positive impact of many of the AI technologies we have examined in our sandbox can be as fast and as mesmerizing as fireworks – the beautiful side of explosions: we have seen cases spanning from predicting heart attacks to effectively fighting money laundering and financing of terrorism.</p>



<p>However, just like fireworks, AI technologies should be handled with care, as they may sometimes have far-reaching and disruptive negative consequences too, in particular for our fundamental rights and freedoms.</p>



<h2 class="wp-block-heading">What is a regulatory sandbox?</h2>



<p>What does a sandbox look like in practice, some of you might wonder. For us it is a method. It means allocating resources and providing dialogue-based guidance to dedicated companies over a period of 4 to 6 months – often in an early phase of the AI project of the company.</p>



<p>A sandbox provides a controlled environment that facilitates the development and testing of innovative AI technologies under the direct supervision and guidance of a competent authority.</p>



<p>In other words, a sandbox is a playground where controlled “explosions” of AI can safely be tested before they happen in the real world.</p>



<p>It gives us as data protection authority a unique chance to dig into AI-related privacy questions where there is little legal and practical precedence.</p>



<p>For example, we worked with the Norwegian welfare administration on a project where they wanted to use AI to ensure better follow up of individuals on sick leave. In this project we learnt about the importance of transparency towards the case handler in the welfare administration in order for them to make an informed decision whether or not to follow the algorithmic suggestion provided. We also learnt that the legal basis for using historical sick leave data to train the algorithm is unclear in the GDPR. For us, this is very concrete and useful takeaways.</p>



<p>A sandbox is also an opportunity for the authorities to gain first-hand insights into new and complex technologies, which is key to provide better case-handling, investigations and guidance to both companies and citizens.</p>



<h2 class="wp-block-heading">How to succeed with a regulatory sandbox?</h2>



<p>Based on our experience, we have identified three main success factors, in order for a sandbox to achieve its goals: </p>



<ul class="wp-block-list">
<li>The AI project  should be used for the greater good and the process towards inclusion in a sandbox must ensure fair competition,</li>



<li>Transparency, and</li>



<li>Accountability.</li>
</ul>



<h3 class="wp-block-heading">The first success factor: use for the greater good and ensuring fair competition</h3>



<p>As for the first success factor: The AI project should be used for the greater good and the process towards participation must ensure fair competition.</p>



<p>To ensure that sandboxes foster both innovation and sound competition, it is key to ensure that applicants are assessed based on open and transparent criteria, and that the criteria ensure the selection of projects with the greatest benefits for society, and not just for the benefit of the participating company or organization itself. &nbsp;</p>



<p>To ensure this, in Norway, we ask ourselves and the applicants the following questions before admitting a project to our sandbox:</p>



<ul class="wp-block-list">
<li>Does the project actually concern artificial intelligence?</li>



<li>Is the project likely to have a significant positive impact on individual citizens or society at large? Will the output or result of the sandbox project benefit or be relevant for other organizations as well?</li>



<li>Is the applicant likely to benefit from participating in the sandbox, beyond limiting its compliance risks?</li>



<li>Does the project fall under our supervisory remit?</li>
</ul>



<p>These were our selection criteria. Other selection criteria can of course also be added to such a list. We consider it, however, beneficial if we, after the adoption of the AI Act, have a common regulation of some basic generic criteria, which are applicable across Europe. In order to achieve this, these common criteria should be found in the AI Act itself, and not left to be decided at a later stage by the European Commission.</p>



<h3 class="wp-block-heading">The next success factor: Transparency</h3>



<p>To get the most out of a sandbox, not only for the concrete participants but also for the rest of society, it is essential to disseminate the key learnings acquired within the sandbox.</p>



<p>Therefore, the publication of a report after the ending of each concrete sandbox project should be the rule rather than the exception.</p>



<p>Publication must of course be done without giving away trade secrets and other sensitive information. However, the explicit consent or agreement from the participating company should not be a precondition to publish reports.</p>



<p>In Norway, we have published reports, both in Norwegian and in English, after each of the 11 projects that we have handled within our sandbox so far. This has been welcomed by other companies who have similar projects in the pipeline – and by others – such as academic environments and the public sector who are keen to learn more about AI.</p>



<p>For us, a key success of the sandbox has been to scale the effect of individual projects by sharing assessments and learnings from each project: by doing so, we are helping many by helping one.</p>



<h3 class="wp-block-heading">The last success factor: Accountability</h3>



<p>From our perspective, the accountability principle should remain a cornerstone of compliance, and companies should remain responsible for the conformity of the AI technologies they apply. This should also be the case even if they have participated in a regulatory sandbox.</p>



<p>In other words, participating in a sandbox should not become or be seen as a tool to obtain a compliance rubber stamp and restrict possible fines at a later stage.</p>



<p>In the draft AI Act, there are sections that will, if included, provide a general liability waiver for organizations and companies that have participated in a sandbox. In our opinion, this solution would deviate from the accountability principle, which is a fundamental and basic principle in compliance.</p>



<p>Therefore, we believe that no general liability waiver for those who have participated in a sandbox should be included in the AI Act.</p>



<h2 class="wp-block-heading">The Role of Data Protection Authorities</h2>



<p>To ensure that the “explosions” of AI are properly controlled in a sandbox, it is key to make sure that sandboxes are run by authorities that have the appropriate expertise and regulatory competence.</p>



<p>Given that many, if not all, AI technologies heavily rely on the use of personal data, data protection authorities would be the natural regulatory body in relation to use of AI that involves personal data in some form, under the AI Act.</p>



<p>Data Protection authorities would be particularly well placed to act as regulators with respect to AI – thanks to their decades of experience with regulating emerging technologies and their extensive experience with balancing different rights and interests.</p>



<p>In any event, even if data protection authorities will not be assigned the main supervisory competence under the AI Act when finalized, data protection authorities will need to be associated to the operation of an AI sandbox as long as it concerns the processing of personal data. This will have to happen every time an AI system involves the processing of personal data or otherwise falls under their supervisory remit, as it was identified in the Commission’s proposal.</p>



<h2 class="wp-block-heading">Our final remarks</h2>



<p>We would like to give you three key takeaways from our sandbox experience.</p>



<ul class="wp-block-list">
<li><strong>First</strong>, we need to be open and transparent in regard to takeaways and learnings from sandbox projects. We need to be open about what we learned in each project, as it is important to bear in mind that the sandbox process is quite resource intensive. In order to defend using our limited resources on sandbox projects, we need to help more than one organization at a time. Helping one by one company would be too resource intensive for us. The sparks and positive explosions – the beautiful fireworks – generated by an AI project in the sandbox need to reach as many as possible outside the sandbox itself in order to foster innovation and spread good practices.</li>



<li><strong>Second</strong>, we need to pay attention when we select the projects, we admit in a sandbox. The selection criteria must be fair and should in our opinion be the same throughout Europe. If we fail to provide fair and transparent selection criteria, sandboxes may risk limiting rather than strengthening competition.</li>



<li>And, <strong>third</strong>, data protection authorities are well suited to run regulatory AI sandboxes. We know how to carry out impact assessments. We have decades of experience as regulators of emerging technologies, and some of us are already successfully running AI sandboxes. Any alternative choice regarding the assignment of regulatory competences in this field should therefore be well pondered.</li>
</ul>



<p>Thank you for your attention.</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="768" src="https://www.personvernbloggen.no/wp-content/uploads/2023/03/Line_EUparliamentet_redigert-1024x768.jpg" alt="" class="wp-image-3790" srcset="https://www.personvernbloggen.no/wp-content/uploads/2023/03/Line_EUparliamentet_redigert-980x735.jpg 980w, https://www.personvernbloggen.no/wp-content/uploads/2023/03/Line_EUparliamentet_redigert-480x360.jpg 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) and (max-width: 980px) 980px, (min-width: 981px) 1024px, 100vw" /></figure>



<p><em>Fra direktestrømmen under seminaret om AI Act i EU-parlamentet</em> tirsdag 7. mars. </p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2023/03/09/sandbox-experiments-controlled-explosions/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Menneskerettslige perspektiver i den digitale tidsalderen</title>
    <link>https://www.personvernbloggen.no/2023/03/02/menneskerettslige-perspektiver-i-den-digitale-tidsalderen/</link>
    <comments>https://www.personvernbloggen.no/2023/03/02/menneskerettslige-perspektiver-i-den-digitale-tidsalderen/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2022/10/cropped-20220805_datatilsynet_line_coll_021-kvadr-200x200.jpg</avatar>
    <pubDate>Thu, 02 Mar 2023 15:28:46 +0000</pubDate>
    <dc:creator><![CDATA[Line Coll]]></dc:creator>
    		<category><![CDATA[Digital masseovervåking]]></category>
		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[Digitalt grenseforsvar]]></category>
		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[Personvernpolitikk]]></category>
		<category><![CDATA[Politi og justis]]></category>
		<category><![CDATA[Sosiale medier]]></category>
		<category><![CDATA[Teknologi]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3779</guid>
    <description><![CDATA[Den grunnleggende retten til en privat sfære, fri for andres blikk, er under press når samfunnets behov for sikkerhet blir ivaretatt ved å ta i bruk kraftige digitale overvåkningsverktøy. Dette truer våre grunnleggende menneskerettigheter. Denne bloggen er basert på en innledning som jeg holdt på seminaret Menneskerettslige perspektiver i den digitale tidsalderen &#8211; Institutt for [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p><strong>Den grunnleggende retten til en privat sfære, fri for andres blikk, er under press når samfunnets behov for sikkerhet blir ivaretatt ved å ta i bruk kraftige digitale overvåkningsverktøy. Dette truer våre grunnleggende menneskerettigheter.</strong></p>



<p><em>Denne bloggen er basert på en innledning som jeg holdt på seminaret <a href="https://www.jus.uio.no/ior/forskning/prosjekter/digivel/arrangementer/seminarer/menneskerettslige-perspektiver-i-den-digitale-tids.html" target="_blank" rel="noreferrer noopener">Menneskerettslige perspektiver i den digitale tidsalderen &#8211; Institutt for offentlig rett (uio.no)</a> den 2.  mars.</em></p>



<p>Det fremgår av PSTs trusselvurdering for 2023 at de nå anser ekstreme miljøvernaktivister som en mulig risiko i det norske samfunnet. PST sin trusselvurdering danner grunnlaget for det arbeidet som de, og mange andre virksomheter, gjør for å sikre samfunnet vårt og egne verdier. PST og etterretningstjenesten er gitt kraftige virkemidler og digitale verktøy som skal gjøre de i stand til å møte det trusselbildet de til enhver tid har identifisert.</p>



<p>Ett av disse virkemidlene finner vi i forslaget til ny etterretningslov, hvor en av bestemmelsene som ligger på bordet åpner opp for tilrettelagt innhenting – masseinnsamling av informasjon og data om norske borgeres bevegelser i det digitale rom.</p>



<p>Sett opp mot det faktum at så og si alt vi gjør i dag skjer nettopp i det digitale rommet , og det faktum at trusselbildet er i stadig endring, &nbsp;så er det grunn til å rope et varsko for personvernet.</p>



<p>Det dynamiske risikobildet som ligger til grunn for metoder og valg som myndighetene gjør tilgjengelige for politi og etterretning, gjør det umulig for oss borgere å ha oversikt og kontroll over når man kan bli overvåket, og når man går klar. For eksempel: «I fjor var jeg en ganske ufarlig miljøverner – i år er jeg en trussel.»</p>



<h2 class="wp-block-heading">Personvern og ytringsfrihet under press</h2>



<p>Den grunnleggende retten til en privat sfære, fri for andres blikk, er under press når samfunnets behov for sikkerhet blir ivaretatt ved å ta i bruk kraftige digitale overvåkningsverktøy. Dette truer våre grunnleggende menneskerettigheter.</p>



<p>Den Europeiske Menneskerettighetsdomstolen formulerte det slik i saken Roman Zakharov v. Russia (2015):</p>



<p><em>«In view of the risk that a system of secret surevilance set up to protect national security may undermine or even destroy democracy under the cloak of defending it, the Court must be satisfied that there are adequate and effective guarantees against abuse…»</em></p>



<p>Men det er ikke bare personvernet som er under press i dette bildet. Personvern og ytringsfrihet henger uløselig sammen. Uten personvern, ingen reell ytringsfrihet.</p>



<p>Slik digital masseovervåkning som nå blir løftet frem som verktøy mot ulike trusler, vil også kunne ha en omfattende nedkjølende effekt på ytringer.</p>



<p>Frykten for andres blikk gjør at vi justerer oss inn og demper våre ytringer. Dersom det i tillegg er statens blikk vi er usikre på om når oss, gjør det noe fundamentalt med samfunnet vårt.</p>



<p>Kanskje blir et brennende innlegg på Aftenpostens Si;D fra en miljøengasjert 12-åring det første digitale sporet som blir samlet inn av PST om et ungt og engasjert menneske?</p>



<p>Jeg lar det spørsmålet stå.</p>



<h2 class="wp-block-heading">Press fra kommersielle aktører</h2>



<p>Presset på grunnleggende menneskerettigheter kommer imidlertid ikke bare fra stater og myndigheter i en utrolig tid. Et åpenbart press kommer også fra kommersielle aktører.</p>



<p>En enorm Pacman i form store kommersielle markedsaktører som Google, Meta og Tik Tok saumfarer digitale flater og labyrinter for alt av data som kan være av interesse. Og alt er tilsynelatende av interesse og har kommersiell verdi.</p>



<p>Noen av dere husker sikkert den lille ballen med den store munnen som slukte alt den kom over på sin vei i sin digitale labyrint. Spillet var nærmest hypnotisk, husker jeg, og det var umulig å legge fra seg.</p>



<p>Slik er også tjenestene og produktene disse kommersielle aktørene sender ut i samfunnet – oppslukende og umulig å legge fra seg. Og vi legger igjen digitale spor fra første skudd – og vi er hekta. Jo lenger vi er på, jo mer data samles inn om oss.</p>



<p>På begynnelsen av 2010-tallet ble sosiale plattformer sett på som en nøytral fasilitator for utøvelse av rettigheter, både ytringsfriheten og informasjonsfriheten. Dette bildet har endret seg. &nbsp;Det er ikke lenger mulig å se bort fra den enorme påvirkningen disse kommersielle plattformene har på politikk, samfunn og demokratiet.</p>



<p>Facebook og Tik Tok lever av å forutse, predikere og forme vår oppførsel og våre meninger. De gjør dette ved å samle inn enorme mengder data. Innsamlingen i seg selv legger press på personvernet, men også hvordan de bruker dataene er en trussel mot grunnleggende rettigheter som personvern, ytringsfrihet, meningsfrihet og informasjonsfrihet.</p>



<p>Når menneskerettighetene debatteres, må vi derfor ta inn over oss og ta med i vurderingene hvilken makt disse selskapene har. Vi har også endt opp med å mer eller mindre bevisst og stilltiende akseptere og tillate at disse store, kommersielle aktørene samler inn enorme mengder med data for kommersielle formål.</p>



<p>Og det er ikke bare den markedsføringsmessige interessen som ligger til grunn for denne omfattende innsamlingen av data.</p>



<p>Akkurat som Pacman så lever kunstig intelligens (KI) av data. Alle disse store aktørene utvikler og tar i bruk KI. Med det datagrunnlaget de har, som de færreste nasjoner eller andre aktører er i nærheten av å ha, så vil de bli – eller forbli – svært mektige premissgiverne for samfunnsutviklingen fremover.</p>



<h2 class="wp-block-heading">Informasjonsfrihet og meningsfrihet under press</h2>



<p>Pacmans innsamling og bruk av data setter jo åpenbart personvernet under press, men også informasjonsfriheten og meningsfriheten. For hvor frie er vi i meningsdannelsen og utviklingen vår, hvis vi risikerer å få presentert falske nyheter eller fakta som er tilpasset oss basert på algoritmer som er utviklet av Kina?</p>



<p>En ungdom jeg kjenner begynte å stille spørsmål ved om jødeforfølgelsen og Holocaust virkelig hadde skjedd. Vedkommende satt ved middagsbordet og stilte spørsmål ved vår tids største forbrytelse. Hen hadde sett på Tik Tok at det var mange som mente jødeforfølgelsen var oppspinn og at jødene skulle ta over verden. Hen hadde altså falt ned i et kanin-hull på Tik Tok. Et algoritmehull. &nbsp;Dette er en ressurssterk 14-åring og hen har handlekraftige foreldre. Hen hadde sikkert kommet opp av det hullet uten hjelp også, men hen fikk klar og tydelig beskjed fra sine foresatte og mistet Tik Tok på mobilen før middagen var omme.&nbsp;&nbsp;</p>



<p>Men ikke alle kommer opp av algoritme-hullet.</p>



<p>Hvordan sikrer vi at dagens barn og unge – fremtidens digitale borgere, de som skal forsvare og forvalte demokratiet vårt – kan utvikle seg og danne seg egne, frie meninger i en forsvarlig ramme, når Tik Tok og andre markedskrefter er premissleverandør?</p>



<p>Jeg lar også det spørsmålet stå åpent.</p>



<h2 class="wp-block-heading">Vi må sikre kollektive mekanismer</h2>



<p>Digital teknologi eksisterer ikke i et vakuum. Teknologien kan være et kraftig verktøy for menneskelig fremgang og bidra til å fremme og beskytte menneskerettighetene. Teknologien har gjort kommunikasjon og deling av informasjon enklere, og gjennom det styrket ytringsfriheten og muligheten til demokratisk deltagelse.</p>



<p>Men dataintensive teknologier bidrar altså samtidig til å skape et samfunn der både stater og kommersielle private aktører i økende grad er i stand til å spore, overvåke, analysere, forutsi og manipulere folks oppførsel på en måte vi ikke tidligere har sett.</p>



<p>Denne siden ved den teknologiske utviklingen medfører betydelig risiko for menneskeverd, autonomi og personvern og utøvelsen av menneskerettighetene generelt, hvis den får foregå uten relevante og adekvate motstemmer og sikkerhetstiltak. Vi må sikre kollektive beskyttelsesmekanismer. Lover, regler og krav til digitalisering og bruk av data og KI må på plass.</p>



<p>Hvis vi ikke klarer å sikre slike kollektive mekanismer nå, vil det være mye vanskeligere å få det på plass senere. Vi må sikre det kollektive gode i systemene vi nå åpner for og utvikler, før det er for sent. &nbsp;</p>



<p>Teknologien er i seg selv nøytral, og utviklet og brukt riktig kan den gi store samfunnsmessige gevinster. Men uten en åpen, offentlig samtale, bevisste politikere og beslutningstakere og hensiktsmessig regulering og nødvendige kontrollmekanismer, for å sikre nettopp det kollektive gode, kan dette også bære galt av sted.&nbsp;</p>



<p>Vi ser stadig at det legges en snever forståelse av retten til personvern til grunn i avveiningen mot forståelsen av for eksempel nasjonal sikkerhet, som på sin side defineres vidt. Menneskerettighetene er ikke mer robuste enn det vi som demokrati og samfunn gjør de til. Det er vi som må beskytte, verne og sikre rettighetene. Myndighetene må derfor ta konkrete grep for å adressere utfordringene som ligger i digitalisering, slik at vi bekrefter og sikrer menneskerettighetene.</p>



<p>Dersom myndigheter og politikere lar digitaliseringsbehovet og -utviklingen gå på bekostning av for eksempel personvernet, slik Personvernkommisjonen peker på at skjer, vil dette helt klart svekke både relevans og vekt av våre grunnleggende menneskerettigheter.</p>



<p>Det må vi ikke la skje.</p>



<p>Vi må stille krav til myndighetene, politikere og lovgivere om å ta hensyn til grunnleggende menneskerettigheter i digitaliseringen av det norske samfunnet. Ethvert digitaliseringsinitiativ må vurderes opp mot effekten det kan ha på personvernet, ytringsfriheten, retten til fri meningsdannelse og informasjonsfriheten. </p>



<p>I det store bildet så handler det om hvilket samfunn vi vil ha<em>.</em></p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2023/03/02/menneskerettslige-perspektiver-i-den-digitale-tidsalderen/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Når er det nok overvåking?</title>
    <link>https://www.personvernbloggen.no/2023/02/09/nar-er-det-nok-overvaking/</link>
    <comments>https://www.personvernbloggen.no/2023/02/09/nar-er-det-nok-overvaking/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2022/10/cropped-20220805_datatilsynet_line_coll_021-kvadr-200x200.jpg</avatar>
    <pubDate>Thu, 09 Feb 2023 15:11:58 +0000</pubDate>
    <dc:creator><![CDATA[Line Coll]]></dc:creator>
    		<category><![CDATA[Digital masseovervåking]]></category>
		<category><![CDATA[Personvernpolitikk]]></category>
		<category><![CDATA[Politi og justis]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3770</guid>
    <description><![CDATA[Dette innlegget sto på trykk i Dagsavisen 8. februar, og er skrevet av direktør Line Coll og seniorrådgiver Jan Henrik Mjønes Nielsen. Masseinnsamling av personopplysninger og myndighetsovervåking av hensyn til nasjonal sikkerhet er blitt kraftig utvidet gjennom flere lovendringer. Det vil påvirke den enkeltes frihet og kan svekke vårt demokratiske samfunn. Datatilsynet mener det er [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p><em>Dette innlegget sto på trykk i <a href="https://www.dagsavisen.no/debatt/2023/02/08/nar-er-det-nok-overvaking/" target="_blank" rel="noreferrer noopener">Dagsavisen 8. februar</a>, og er skrevet av direktør Line Coll og seniorrådgiver Jan Henrik Mjønes Nielsen.</em></p>



<p><strong>Masseinnsamling av personopplysninger og myndighetsovervåking av hensyn til nasjonal sikkerhet er blitt kraftig utvidet gjennom flere lovendringer. Det vil påvirke den enkeltes frihet og kan svekke vårt demokratiske samfunn.</strong></p>



<p>Datatilsynet mener det er på høy tid at alle nå må erkjenne konsekvensene av det samlede overvåkingstrykket og utrede metodebruken i justissektoren. </p>



<p>Fem store systemer med kapasitet til å kartlegge alt fra flyreiser til internettbruk er vedtatt eller foreslått.</p>



<p>Etterretningstjenesten skal operere to systemer, omtalt som bulkinnhenting og tilrettelagt innhenting. Ved bulkinnhenting samles det inn store mengder rådata fra ulike kilder som det så kan søkes i uten forhåndskontroll. Tilrettelagt innhenting innebærer søk i metadata og innholdsdata fra norske internettkabler, og i motsetning til for bulkinnhentingen, er det lagt opp til domstolskontroll for deler av søkene. Systemene skal i utgangspunktet ikke fange opp norske borgeres kommunikasjon, men i realiteten vil det omfatte nesten alle aktiviteter på internett.</p>



<p>Politiet har allerede fått hjemler for to systemer, ett for overvåking av flypassasjerer og ett for innhenting av IP-adresser. Ingen av dem er underlagt uavhengig forhåndskontroll. Opplysninger om alles reisemønstre, reisefølge, betalingsmetoder og en rekke andre kategorier skal danne grunnlag for søk etter personer som ikke nødvendigvis politiet er kjent med fra før. Når innsamling av IP-adresser er i gang, vil politiet få mulighet til å få oversikt over alle koblinger fra den enkeltes pc, mobil eller ulike apper til nettet. Dette kan brukes til å kartlegge både internettbruk og bevegelser.</p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>Ny teknologi i form av kunstig intelligens og maskinlæring gjør at overvåkingskapasiteten øker kraftig.</p>
</blockquote>



<p>Hvis lovforslaget som er til behandling i Stortinget får flertall, skal PST uten forhåndskontroll kunne innhente nærmest ubegrenset informasjon om den enkelte som er tilgjengelig på internett. Kilder som kan sammenstilles kan være Facebook-grupper og andre sosiale medier, kommentarfelt og ulike nettgrupper for meningsutveksling.</p>



<p>Dette innebærer en omfattende overvåking av norske borgeres liv.</p>



<p>Felles for alle forslagene er at sentrale høringsinstanser som Datatilsynet, NIM, Advokatforeningen og Tekna mener at systemene ikke er i tråd med praksis fra EMD og EU-domstolen. Kritikken går i hovedsak på fraværende målretting og manglende uavhengig forhåndskontroll.</p>



<p>Ny teknologi i form av kunstig intelligens og maskinlæring gjør at overvåkingskapasiteten øker kraftig. Søketeknikker gjør det mulig å hente ut opplysninger om den enkelte som ikke er mulig uten å sammenstille store mengder data. Overvåkingspotensialet oppstår allerede ved innsamlingen, det kan påvirke i hvilken grad vi våger å bruke internett til å hente kunnskap og utveksle meninger.</p>



<p>For å ivareta tilliten til myndighetene og begrense de negative følgene av overvåking er det viktig med klare skranker i form av lovgivning og god kontroll. Datatilsynet arbeider for ansvarlig bruk at kunstig intelligens. Det gjøres et stort arbeid og stilles strenge krav til bruk av personopplysninger i utviklingen av KI-verktøy for offentlige og private virksomheter. Regelverket for å kontrollere utviklingen av kunstig intelligens i justis og forsvarssektoren er i dag lite utviklet. Selv helt sentrale bestemmelser som at algoritmer ikke skal diskriminere, mangler.</p>



<p>Personvernkommisjonen har sin utredning fra 2022 pekt på at åpenhet bidrar til å skape tillit. Mangel på informasjon og gjennomsiktighet om teknologibruk, kombinert med en stadig utvikling av kraftige datainnsamlings- og analyseverktøy for bruk i justissektoren, kan føre til svakere personvern og en nedkjølingseffekt hvor den enkelte velger å ikke ytre seg i frykt for overvåking.</p>



<p>I Datatilsynets personvernundersøkelse 2020 svarer 16 prosent at de har unnlatt å delta i en debatt i kommentarfelt eller på Facebook fordi de er usikre på om myndigheter slik som politiet, PST eller etterretningstjenesten, kan få tilgang til informasjonen. Dette er et oppsiktsvekkende høyt tall i et land hvor tilliten til offentlige myndigheter generelt sett er høy.</p>



<p><a href="https://www.datatilsynet.no/aktuelt/aktuelle-nyheter-2023/horing-i-stortinget-om-innhenting-fra-apne-kilder/" target="_blank" rel="noreferrer noopener">Dere finner all informasjon om saken og kan lese høringssvaret vårt til forslaget på datatilsynet.no</a></p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2023/02/09/nar-er-det-nok-overvaking/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Den personvernpolitiske vendingen</title>
    <link>https://www.personvernbloggen.no/2023/01/31/den-personvernpolitiske-vendingen/</link>
    <comments>https://www.personvernbloggen.no/2023/01/31/den-personvernpolitiske-vendingen/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2022/10/cropped-20220805_datatilsynet_line_coll_021-kvadr-200x200.jpg</avatar>
    <pubDate>Tue, 31 Jan 2023 16:00:15 +0000</pubDate>
    <dc:creator><![CDATA[Line Coll]]></dc:creator>
    		<category><![CDATA[Personverndagen]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3721</guid>
    <description><![CDATA[Denne teksten er deler av et innlegg jeg holdt under Personverndagen 2023: Neste generasjons personvern (datatilsynet.no). Personvern er en individfokusert rettighet. Personvernforordningen gir enkeltindivider rettigheter og pålegger virksomheter plikter for å møte disse. Den regulerer maktforholdet mellom staten og private selskaper på den ene siden og enkeltindividet på den andre. Samtidig er personvern en kollektiv [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p><em>Denne teksten er deler av et innlegg jeg holdt under <a href="https://www.datatilsynet.no/aktuelt/aktuelle-nyheter-2023/personverndagen-2023/" target="_blank" rel="noreferrer noopener">Personverndagen 2023: Neste generasjons personvern (datatilsynet.no)</a>.</em></p>



<p></p>



<p>Personvern er en individfokusert rettighet. Personvernforordningen gir enkeltindivider rettigheter og pålegger virksomheter plikter for å møte disse. Den regulerer maktforholdet mellom staten og private selskaper på den ene siden og enkeltindividet på den andre.</p>



<p>Samtidig er personvern en kollektiv verdi. Selv om Margaret Thatcher i sin tid insisterte på at det ikke fantes noe samfunn, vil de fleste være enige i at hvor gode og frie liv vi kan leve avhenger av samfunnsstrukturene vi inngår i. Graden av den enkeltes frihet er uløselig forbundet med hvor fritt samfunnet vårt er.</p>



<p>Å kun forstå personvern som et individuelt anliggende støter også på problemer i vår stadig mer sammenkoblede verden. Min Facebook-aktivitet sier ikke bare noe om meg, men også mitt nettverk. En gentest avslører ikke bare mine, men også min families gener.</p>



<p>Personvernkommisjonen peker helt korrekt på at det er «et grunnleggende problem at det er vanskelig å ta stilling til konsekvenser av egne handlinger som rammer et abstrakt kollektiv, eller som bidrar til skadevirkninger for andre en gang i fremtiden».</p>



<p>Det er mulig å sammenligne denne samfunnsutfordringen med klimaendringer. Mange små, individuelle valg fører i sum til kollektiv skade.</p>



<h2 class="wp-block-heading">Skandaler eller villet politikk?</h2>



<p>Noen temaer kommer først på den politiske agendaen når det skjer en skandale. Bedre regler for sikkerhet på oljeplattformer kom kjapt på plass etter Alexander Kielland-katastrofen. Enron-skandalen bidro til strengere korrupsjonslovgivning. I Nederland kom personvern og algoritmekontroll på agendaen da skattemyndighetene feilaktig ba om tilbakebetaling av barnetrygd – basert på en skjev algoritme som profilerte minoriteter som svindlere. Skandalen resulterte i at regjerningen gikk av og at det har opprettet et algoritmetilsyn som ble lansert for et par uker siden.</p>



<p>Må det virkelig en skandale til for at vi får politisk styring av bruk av personopplysninger?</p>



<p>Jeg håper ikke det. Og her er det politikken kommer inn. Selv om de fleste vil mene at vi fremdeles ikke gjør nok for å møte klimaendringene, har vi, nasjonalt og internasjonalt, forhandlet frem avtaler og reguleringer (altså politikk!) for å skape endring. Det samme må skje på personvernfeltet. Vi trenger en personvernpolitikk. «Demokratisk og regulatorisk kontroll over hvordan personopplysninger samles inn og brukes», som kommisjonen skriver.</p>



<p>Politikk er altså et demokratisk samfunns svar på en utfordring. Bevisstheten rundt utfordringene knyttet til digitale samfunns bruk og misbruk av personopplysninger har økt jevnt og trutt de siste årene. Tiden er overmoden for handling.</p>



<h2 class="wp-block-heading">Et startskudd for en nasjonal personvernpolitikk</h2>



<p>Kommisjonens rapport er startskuddet vi behøver for en politikkutforming. Det er viktig at personvern er et tema også utenfor ekspertsirklene og at beslutningstakere tar ansvar. Personvern må på agendaen i kommunestyrer, i komiteer og ledergrupper og på Stortinget. Store og viktige spørsmål bør stå på agendaen: Hvordan påvirker bruk av personopplysninger demokratiet vårt? Hvordan kan vi få til en digitalisering som skjer i tråd med grunnleggende menneskerettigheter? Hva er det nasjonale handlingsrommet for politikkutforming på personvernområdet?</p>



<p>Vi bør, som samfunn, ha som ambisjon å løfte frem personvern som et selvstendig politikkområde uten at det skal komme som et resultat av en skandale.</p>



<p>Forrige fredag ble disse og flere andre spørsmål diskutert da Datatilsynet og Teknologirådet arrangerte <a href="https://www.datatilsynet.no/aktuelt/aktuelle-nyheter-2023/personverndagen-2023/" target="_blank" rel="noreferrer noopener">Personverndagen 2023</a>. Opptak fra arrangementet ligger i artikkelen. Vi håper at diskusjonene fortsetter i andre kanaler, blant annet i vår kommende podcastserie dedikert til personvernpolitikk og andre tema fra <a href="https://www.regjeringen.no/no/dokumenter/nou-2022-11/id2928543/" target="_blank" rel="noreferrer noopener">Personvernkommisjonens</a> rapport.</p>



<p> </p>



<p></p>



<h2 class="wp-block-heading"></h2>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2023/01/31/den-personvernpolitiske-vendingen/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
  </channel>
</rss>