<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
  xmlns:content="http://purl.org/rss/1.0/modules/content/"
  xmlns:wfw="http://wellformedweb.org/CommentAPI/"
  xmlns:dc="http://purl.org/dc/elements/1.1/"
  xmlns:atom="http://www.w3.org/2005/Atom"
  xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
  xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
  >
<channel>
  <title>Personvernbloggenpersonvern Archives - Personvernbloggen</title>
  <atom:link href="https://www.personvernbloggen.no/tag/personvern/feed/" rel="self" type="application/rss+xml" />
  <link>https://www.personvernbloggen.no/tag/personvern/</link>
  <description>Datatilsynets blogg om personvernspørsmål</description>
  <lastBuildDate>Wed, 13 May 2026 07:52:18 +0000</lastBuildDate>
  <language>nb-NO</language>
    <sy:updatePeriod>hourly</sy:updatePeriod>
    <sy:updateFrequency>1</sy:updateFrequency>
  <generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.personvernbloggen.no/wp-content/uploads/2018/03/cropped-DT-Favicon-32x32.jpg</url>
	<title>personvern Archives - Personvernbloggen</title>
	<link>https://www.personvernbloggen.no/tag/personvern/</link>
	<width>32</width>
	<height>32</height>
</image> 
  <item>
    <title>Seks sentrale spørsmål om kunstig intelligens (Og svarene fra sandkassen)</title>
    <link>https://www.personvernbloggen.no/2025/04/01/seks-sentrale-sporsmal-om-kunstig-intelligens-og-svarene-fra-sandkassen/</link>
    <comments>https://www.personvernbloggen.no/2025/04/01/seks-sentrale-sporsmal-om-kunstig-intelligens-og-svarene-fra-sandkassen/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2020/08/Profilbilde_Magnus-scaled-e1597911334538-200x200.jpg</avatar>
    <pubDate>Tue, 01 Apr 2025 07:08:40 +0000</pubDate>
    <dc:creator><![CDATA[Magnus Mühlbradt]]></dc:creator>
    		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[Ikke kategorisert]]></category>
		<category><![CDATA[Innebygd personvern]]></category>
		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[Teknologi]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[digitalisering]]></category>
		<category><![CDATA[innovasjon]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[personvern]]></category>
		<category><![CDATA[regulatorisk sandkasse]]></category>
		<category><![CDATA[sandkasse]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=4020</guid>
    <description><![CDATA[Siden oppstarten i 2021 har Datatilsynets regulatoriske sandkasse hjulpet enkeltaktører med å følge regelverket og utvikle KI-løsninger med godt personvern. Fremover vil vi ha et bredere fokus på innovasjon og digitalisering – både med og uten kunstig intelligens. Men la oss først se nærmere på seks KI-relaterte spørsmål vi ofte har møtt fra søkere og [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p>Siden oppstarten i 2021 har Datatilsynets regulatoriske sandkasse hjulpet enkeltaktører med å følge regelverket og utvikle KI-løsninger med godt personvern. Fremover vil vi ha et bredere fokus på innovasjon og digitalisering – både med og uten kunstig intelligens. Men la oss først se nærmere på seks KI-relaterte spørsmål vi ofte har møtt fra søkere og deltakere i sandkassen.</p>



<h2 class="wp-block-heading">1. <strong>Kan vi bruke personopplysninger i KI-løsningen?</strong></h2>



<p>Et spørsmål som går igjen i Datatilsynets sandkasse er: Har vi lov til å bruke personopplysninger i løsningen vår? </p>



<p>Svaret er som regel: Det kommer an på.</p>



<p>For at behandlingen av personopplysninger skal være lovlig, må virksomheten ha et rettslig grunnlag, også ved utvikling av kunstig intelligens. Dette er i tråd med <a href="https://lovdata.no/dokument/NL/lov/2018-06-15-38/KAPITTEL_gdpr-2#gdpr/a6">personvernforordningen artikkel seks</a>.</p>



<p>Kunstig intelligens omfatter ofte flere faser: utvikling, anvendelse (bruken av selve løsningen) og etterlæring. Disse fasene kan overlappe, noe som gjør det krevende å avgjøre når én fase slutter og en annen begynner. Og selv om virksomheten har rettslig grunnlag for én fase, betyr det ikke nødvendigvis at dette grunnlaget dekker andre faser.</p>



<p>Vi møtte på denne problemstillingen sammen med NAV – i et av de første sandkasseprosjektene våre. Her kom vi frem til, at NAV hadde hjemmel i folketrygdloven til å behandle brukernes opplysninger for å yte tjenester. Loven er derimot ikke tydelig  på om de kan bruke historiske data om sykemeldinger <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/nav-sluttrapport/rettslig-grunnlag/">til trening av algoritmene</a>.</p>



<p>En annen viktig læring, er at det er viktig å identifisere hvilke data som faktisk inneholder personopplysninger. I sandkasseprosjektet med Juridisk ABC kom vi frem til at de kunne nytte lovtekster, forskrifter, forarbeider og lignende juridiske kilder i <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/juridisk-abc-sluttrapport-jussboten-lawai/">den generative KI-løsningen for arbeidsrett</a>. Det var ikke krav om rettslig grunnlag ganske enkelt fordi kildene ikke inneholdt personopplysninger. Derimot inneholdt dommer og kjennelser ofte omfattende mengder personopplysninger – som kan være svært sensitive for de som er involvert. Derfor måtte Juridisk ABC ha et rettslig grunnlag for å inkludere disse i KI-løsningen.</p>



<h2 class="wp-block-heading">2. <strong>Er anonymisering løsningen?</strong></h2>



<p>Flere av virksomhetene i sandkassen har ønsket å anonymisere personopplysninger. Anonymiserte data er jo ikke omfattet av personvernregelverket, så det <em>kan</em> forenkle mye. Men – det har i praksis vist seg krevende å få til faktisk anonymisering.</p>



<p>Til tross for betydelige fremskritt innen anonymiseringsteknologi, som skal hindre identifisering av enkeltpersoner i datasett, har det parallelt vært en utvikling av analyseteknologi som øker risikoen for re-identifisering. Mer offentliggjøring av offentlige data har også gjort det mulig å sammenstille flere datapunkter fra ulike kilder, hvilket øker utfordringen.</p>



<p>I sandkassen har vi sett flere eksempler på bruk av ny teknologi for å redusere risikoen for re-identifisering. Finansvirksomheten <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/finterai-sluttrapport/">Finterai ville bruke føderert læring</a> for å kunne dele innsikt fra transaksjonshistorikk mellom banker – uten å eksponere opplysninger som kunne knyttes til enkeltpersoner.</p>



<p>Teknologiselskapet <a href="https://www.datatilsynet.no/en/regulations-and-tools/sandbox-for-artificial-intelligence/reports/salt-mobai-et-al.-exit-report-securing-digital-identities/">Mobai hadde en lignende tilnærming</a>, men benyttet homomorfisk kryptering for å gjøre re-identifisering vanskeligere. Ved hjelp av denne teknologien kunne aktører analysere krypterte personopplysninger uten at de måtte dekrypteres. Dette skjer ved at de bevarer de egenskapene ved personopplysningene som de ønsker å bruke, og fjerner resten. </p>



<p><a href="https://www.datatilsynet.no/personvern-pa-ulike-omrader/internett-og-apper/personvernfremmende-teknologi/">Personvernfremmende teknologier</a>, som føderert læring og homomorfisk kryptering, markerer viktige skritt i riktig retning for å få til godt personvern i praksis. De bidrar ikke bare til å redusere risikoen for re-identifisering av personer som er i et KI-datasett. De gir også virksomheter bedre muligheter til å balansere innovasjon med personvern og informasjonssikkerhet.</p>



<h2 class="wp-block-heading">3. <strong>Kan kunstig intelligens bidra til dataminimering?</strong></h2>



<p>Prinsippet om dataminimering kan ved første øyekast virke som en motpol til kunstig intelligens. Kunstig intelligens trenger store mengder personopplysninger for å lære. Prinsippet om dataminimering slår fast at du skal samle inn minst mulig personopplysninger – kun det som er nødvendig for å oppnå formålet.</p>



<p>I flere sandkasseprosjekter har vi utforsket dette tilsynelatende dilemmaet. For eksempel har vi i sammen med <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/doorkeeper-sluttrapport-intelligent-kameraovervaking-med-personvern-i-fokus/">sikkerhetsselskapet Doorkeeper</a> sett på hvordan KI-baserte overvåkingskameraer kan minimere innsamlingen av personopplysninger. Blant annet kan de sladde mennesker i videostrømmen eller aktivere løpende opptak kun når en spesifikk hendelse utløser det. Vi har også diskutert situasjoner man <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/finterai-sluttrapport/dataminimering/">ikke vet hvilke opplysninger som er nødvendige før de har analysert data over tid.</a> Er det brudd på dataminimeringsprinsippet, om det i ettertid viser seg at personopplysninger har blitt behandlet uten å være relevante? Vi har utforsket problemstillingen i sandkassen, men som i mange andre tilfeller vil svaret avhenge av den konkrete konteksten.</p>



<h2 class="wp-block-heading">4. <strong>Hvordan skaper algoritmer urettferdighet?</strong></h2>



<p>Helsesektoren har vært godt representert i sandkassen, blant annet gjennom prosjekter med <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/helse-bergen-sluttrapport-kunstig-intelligens-i-oppfolging-av-sarbare-pasienter/hvordan-sikre-at-algoritmen-gir-et-rettferdig-resultat/">Helse Bergen</a> og <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/ahus-sluttrapport-ekg-ai/tiltak-som-kan-redusere-algoritmeskjevhet/">Ahus</a>. Disse har fokusert på KI-løsninger som skulle forutsi hjertesvikt og peke ut pasienter med fare for rask reinnleggelse på sykehus.</p>



<p>Kunstig intelligens i helsesektoren reiser viktige spørsmål om algoritmeskjevheter, som kan føre til at pasientene blir diskriminert. I begge prosjektene var KI-verktøyene ment som beslutningsstøtte og ikke for å gjennomføre automatiserte avgjørelser uten menneskelig innblanding. Likevel, det er en utbredt forståelse for at kunstig intelligens kan videreføre og forsterke eksisterende diskriminering i samfunnet. I tilfeller hvor algoritmene kommer til feil vurdering av folks helse, kan dette ha alvorlige konsekvenser.</p>



<p>I Ahus-prosjektet så de at dårlig datakvalitet og feil i datagrunnlaget potensielt kunne resultere i uriktige og diskriminerende resultater. Og de så på forskjellige metoder for å avverge dette.</p>



<p>For virksomheter som vil avverge algoritmeskapt diskriminering, har Likestillings- og diskrimineringsombudet <a href="https://ldo.no/aktuelt/innebygd-diskrimineringsvern/">en nyttig veileder om innebygd diskrimineringsvern</a>. Den er rettet mot de som er ansvarlige for utvikling, anskaffelse og bruk av ML-systemer, og skal gjøre dem kjent med diskrimineringsregelverket, slik at de kan forebygge ved å vurdere diskrimineringsrisikoen teknologien medfører.</p>



<h2 class="wp-block-heading">5. <strong>Hvem har ansvaret: utvikler eller kunde?</strong></h2>



<p>I flere sandkasseprosjekter har vi diskutert ansvarsforhold knyttet til behandlingen av personopplysninger i KI-løsninger: Hvem er behandlingsansvarlig? Hvem er databehandler? Og bør utviklere ta et større ansvar for å hjelpe virksomheter med å etterleve personvernregelverket?</p>



<p>En leverandør har ikke nødvendigvis et direkte ansvar for at kjøperne av produktet følger personvernregelverket, når løsningen blir brukt til å samle inn og behandle personopplysninger. Likevel bør de levere løsninger som legger til rette for at kunden, som ofte er å regne som behandlingsansvarlig, kan overholde regelverket i praksis.</p>



<p>I noen tilfeller kan det også være hensiktsmessig at utviklere eller leverandører tar på seg mer ansvar, for å sikre viktige personvernhensyn. Dette kan for eksempel være knyttet til tilgangskontroll eller informasjonssikkerhet.</p>



<p>Et eksempel på at utvikleren tar mer ansvar for å forbedre personvernet, ser vi i <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/secure-practice---sluttrapport/">prosjektet med Secure Practice</a>. Denne teknologivirksomheten hadde som mål å gi persontilpasset opplæring i cybersikkerhet. Sikkerhetsopplæringen var ment for ansatte i virksomheter, som ville kjøpe tjenesten fra Secure Practice. I tillegg ville ledelsen i disse virksomhetene få statistikk over ansattes kunnskaps- og interessenivå innenfor informasjonssikkerhet. For å kunne levere tjenesten uten at informasjon om ansatte kan misbrukes av ledelsen, drøftet deltakerne i prosjektet at det kunne være nødvendig å holde tilbake personopplysninger fra kunden. For at dette skulle være mulig, vurderte de en løsning med felles behandlingsansvar. Secure Practice og kunden vil da i fellesskap fastsette formålene og midlene for behandlingen av arbeidstakers personopplysninger.</p>



<p>Dette viser hvor viktig det er å avklare og plassere ansvarsforhold for å utvikle løsninger med godt personvern. Klare ansvarsforhold bidrar ikke bare til bedre etterlevelse av regelverket. Det kan også bidra til økt tillit mellom leverandører og kunder.</p>



<h2 class="wp-block-heading">6. <strong>Hvorfor maser vi så fælt om at personvernet må tidlig på plass?</strong></h2>



<p>Har du hørt om innebygd personvern? Det er et prinsipp i personvernregelverket om at tekniske systemer og løsninger blir utviklet slik at personvernet blir ivaretatt. Poenget er å sikre at personvernet i systemet er gjennomtenkt, heller enn å forsøksvis bli klattet på til slutt. I den nye digitaliseringsstrategien slår regjeringen fast at alle relevante IT-løsninger i offentlig sektor skal ha innebygd personvern. Men hva betyr det i praksis?</p>



<p>Mange av virksomhetene har kommet til sandkassen med KI-prosjekter i konseptfasen. Erfaringen fra disse prosjektene er at tidlige veivalg har stor betydning for hvor lett eller vanskelig det blir å etterleve kravene i personvernregelverket.&nbsp;</p>



<p>Flere eksempler fra sandkassen illustrer dette, spesielt når det gjelder lagring av personopplysninger for KI-formål. For eksempel kan lagring av store mengder personopplysninger sentralt på en felles server, gjøre dataene sårbare og øke angrepsflatene. Da må strenge organisatoriske og tekniske tiltak til for å sikre opplysningene, ettersom lagringen innebærer en større risiko for de registrerte. På en annen side kan desentralisert lagring – for eksempel ved kantprosessering (edge computing) – i visse tilfeller redusere personvernrisikoen. Det forenkler virksomhetens arbeid med informasjonssikkerhet.</p>



<p>Ett eksempel på desentralisert lagring er <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/doorkeeper-sluttrapport-intelligent-kameraovervaking-med-personvern-i-fokus/">Doorkeepers løsning</a>, der videostrømmen fra et overvåkingskamera ble sladdet direkte i kamerahuset før opptakene ble sendt videre til et brukergrensnitt. Et annet eksempel var <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/ruter-sluttrapport-i-rute-med-kunstig-intelligens/hvilket-ansvar-har-ruter-ved-lokal-lagring-i-forberedelsesfasen/">et prosjekt med Ruter</a>, som ønsket lokal lagring på brukernes egne mobiltelefoner i forberedelsesfasen til å utvikle KI. </p>



<p>Hvor data skal lagres, er neppe det første du tenker på etter å ha fått en ide om en genial ide. Å tenke på det tidlig nok kan riktignok spare deg for mye frustrasjon, og brukerne for risiko. </p>



<p>Dette er særlig relevant for virksomheter med begrensede ressurser – å utvikle løsninger som fra starten ikke krever omfattende tiltak for å oppfylle personvernregelverket. Å tilpasse ferdigutviklede løsninger i etterkant kan være både tidkrevende og kostbart.</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2025/04/01/seks-sentrale-sporsmal-om-kunstig-intelligens-og-svarene-fra-sandkassen/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Et varsko for barns personvern</title>
    <link>https://www.personvernbloggen.no/2025/03/14/et-varsko-for-barns-personvern/</link>
    <comments>https://www.personvernbloggen.no/2025/03/14/et-varsko-for-barns-personvern/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2025/03/cn52-200x200.jpg</avatar>
    <pubDate>Fri, 14 Mar 2025 09:26:07 +0000</pubDate>
    <dc:creator><![CDATA[Camilla Nervik]]></dc:creator>
    		<category><![CDATA[Barn og unge]]></category>
		<category><![CDATA[Personvernpolitikk]]></category>
		<category><![CDATA[barn]]></category>
		<category><![CDATA[barnehagebarn]]></category>
		<category><![CDATA[datatilsynet]]></category>
		<category><![CDATA[høring]]></category>
		<category><![CDATA[individdataregister]]></category>
		<category><![CDATA[lovforslag]]></category>
		<category><![CDATA[personvern]]></category>
		<category><![CDATA[Register]]></category>
		<category><![CDATA[Samtykke]]></category>
		<category><![CDATA[skoleelever]]></category>
		<category><![CDATA[Utdanningsforbundet]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=4008</guid>
    <description><![CDATA[Regjeringen ønsker å opprette nasjonale individdataregistre over barnehagebarn og skoleelever. Konsekvensen blir enda mer overvåking, og nok en gang settes barn og unges personvern under press. Det skriver Datatilsynets Camilla Nervik, Kristin Skolt og Utdanningsforbundets Geir Røsvoll i en kronikk.]]></description>
        <content:encoded><![CDATA[
<p><em><a href="https://www.altinget.no/artikkel/et-varsko-for-barns-personvern">Innlegget er skrevet av Datatilsynets juridiske rådgiver Kristin Skolt, fungerende juridisk direktør Camilla Nervik og leder i Utdanningsforbundet, Geir Røsvoll. Det sto først &laquo;på trykk&raquo; på altinget.no 12. mars 2025.</a></em></p>



<p>Regjeringen ønsker å opprette nasjonale individdataregistre over barnehagebarn og skoleelever. Konsekvensen blir enda mer overvåking, og nok en gang settes barn og unges personvern under press.</p>



<p>Kunnskapsdepartementet jobber i disse dager med et nytt lovforslag som har vært på høring. Målet er å opprette to nasjonale registre med personopplysninger om alle landets barnehagebarn og skoleelever. Forslaget innebærer et radikalt inngrep i befolkningens, og særlig barnas, personvern. Vi er derfor svært bekymret for hvor liten oppmerksomhet dette vies i offentligheten.</p>



<p><em><a href="https://www.datatilsynet.no/regelverk-og-verktoy/lover-og-regler/hoeringsuttalelser/horingsuttalelser-2024/horingssvar-om-nasjonale-individdataregistre-for-barn/">Se Datatilsynets høringssvar på lovforslaget.</a></em></p>



<h2 class="wp-block-heading"><strong>Mangelfull utredning og manglende vurderinger</strong></h2>



<p>Begrunnelsen for å opprette registrene, er et ønske om sentrale datakilder som skal gi et bedre kunnskapsgrunnlag for styring og utvikling av barnehagen og skolen. Vi anerkjenner at det trengs mer kunnskap om skolens bidrag til læring. Registrering og kobling av personopplysninger innebærer samtidig en betydelig svekkelse av personvernet. Det avgjørende spørsmålet er om denne svekkelsen kan forsvares opp mot samfunnsnytten. Utdanningsforbundet og Datatilsynet mener at departementet ikke har besvart dette spørsmålet, og at vurderingene deres ikke er begrunnet godt nok.&nbsp;</p>



<p>Høringsforslaget mangler blant annet beskrivelser av konkrete utfordringer som skal løses, hvilke typer løsninger registrene kan bidra til eller hva samfunnsnytten egentlig består i. At det faktisk innebærer et inngrep i personvernet når staten registrerer og lagrer store mengder sensitive personopplysninger om alle barn og unge, er heller ikke synliggjort i tilstrekkelig grad.</p>



<figure class="wp-block-pullquote"><blockquote><p>Vi er svært bekymret for hvor liten oppmerksomhet dette vies i offentligheten.</p></blockquote></figure>



<p>I en tid med stor politisk uro, og risiko for skadelig bruk av personopplysninger, er det betimelig å understreke at datasikkerhet alene ikke er et absolutt vern mot misbruk av omfattende individregistre. Selv om en rekke datasikringstiltak iverksettes, vil ikke slike tiltak kompensere for det store personverninngrepet opprettelsen av individdataregistrene innebærer.&nbsp;</p>



<h2 class="wp-block-heading"><strong>Overvåkning uten samtykke</strong></h2>



<p>Gjennom høringsnotatet er det lett å forledes til å tro at individregistrene er uproblematiske og lite kontroversielle. Departementet foreslår imidlertid å opprette registre med et svært generelt formål, en vid adgang til å utlevere individdata til forskningsformål uten kontrollmuligheter og en tilnærmet ubegrenset adgang til å koble persondata mot andre statlige registre. Potensialet i disse opplysningene er at de kan gi et fullstendig bilde av et enkeltindivids liv fra vugge til grav.</p>



<p>I tillegg innebærer forslaget at til dels svært sensitive personopplysninger om alle barn i Norge skal registreres uten krav om samtykke eller en mulighet til å reservere seg. Med dette fratas også foreldrene sin mulighet til å beskytte sine barns personlige integritet. Barna og foreldrenes personvern svekkes ytterligere når det ikke gis adgang til grunnleggende rettigheter som å protestere, be om sletting eller retting av egne personopplysninger.&nbsp;</p>



<figure class="wp-block-pullquote"><blockquote><p><br>Potensialet i disse opplysningene er at de kan gi et fullstendig bilde av et enkeltindivids liv fra vugge til grav.</p></blockquote></figure>



<h2 class="wp-block-heading"><strong>Svekket personvern svekker tilliten i samfunnet</strong></h2>



<p>Personvern er en fundamental demokratisk verdi, som legger grunnlag for ytringsfrihet, informasjonsfrihet og meningsdannelse. Personvern er med andre ord avgjørende for tilliten i samfunnet, både mellom borgerne og ikke minst mellom borgerne og staten.</p>



<p>Regjeringens ønske om å opprette individregistre innebærer en endret maktbalanse mellom myndighetene og enkeltindividet. Dette kan føre til en generell svekket tillit til staten.</p>



<h2 class="wp-block-heading"><strong>Følg Grunnloven</strong></h2>



<p>For litt over 15 år siden ble lignende registre foreslått, men forkastet av hensyn til personvernet. Siden den gang har personvernet fått en sterkere posisjon i norsk lovgivning. Ved grunnlovsjubileet i 2014, vedtok Stortinget å styrke vernet om den personlige integriteten i Grunnlovens § 102. Det er altså ikke mer enn drøyt 10 år siden vi fikk grunnlovsfestet at «statens myndigheter skal sikre et vern om den personlige integritet».</p>



<p>Om regjeringen nå velger å se bort fra dette, må Stortinget være seg sitt ansvar bevisst og sikre at Grunnlovens personvernbestemmelse også får reell betydning for barn og unge i Norge.&nbsp;</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2025/03/14/et-varsko-for-barns-personvern/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>PSTs forebyggingssamtaler beveger seg i rettsstatens yttergrense</title>
    <link>https://www.personvernbloggen.no/2025/03/12/psts-forebyggingssamtaler-beveger-seg-i-rettsstatens-yttergrense/</link>
    <comments>https://www.personvernbloggen.no/2025/03/12/psts-forebyggingssamtaler-beveger-seg-i-rettsstatens-yttergrense/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2022/10/cropped-datatilsynet_jan_henrik_181122134718-kvadr-200x200.jpg</avatar>
    <pubDate>Wed, 12 Mar 2025 11:39:12 +0000</pubDate>
    <dc:creator><![CDATA[Jan Henrik Mjønes Nielsen]]></dc:creator>
    		<category><![CDATA[Arbeidsliv]]></category>
		<category><![CDATA[Digital masseovervåking]]></category>
		<category><![CDATA[Politi og justis]]></category>
		<category><![CDATA[forebygging]]></category>
		<category><![CDATA[forebyggingssamtale]]></category>
		<category><![CDATA[kildevern]]></category>
		<category><![CDATA[overvåkning]]></category>
		<category><![CDATA[personvern]]></category>
		<category><![CDATA[PST]]></category>
		<category><![CDATA[sikkerhet]]></category>
		<category><![CDATA[trusler]]></category>
		<category><![CDATA[ytringsfrihet]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3999</guid>
    <description><![CDATA[Vi ser et stadig press mot personvern, kildevern og ytringsfrihet med begrunnelse i sikkerhet. Det er synd om PST bruker metoder som forsterker negative effekter av overvåkning og svekker rettsstaten. I DN 14. februar uttrykker PST frustrasjon over at ansatte i norske virksomheter i mindre grad er tilgjengelige for forebyggingssamtaler. Kan det være at PSTs metoder utfordrer [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p>Vi ser et stadig press mot personvern, kildevern og ytringsfrihet med begrunnelse i sikkerhet. Det er synd om PST bruker metoder som forsterker negative effekter av overvåkning og svekker rettsstaten.</p>



<p>I <a href="https://www.dn.no/magasinet/reportasje/politiets-sikkerhetstjeneste/pst/dag-rojhell/pst-bekymret-over-ansatte-i-norske-virksomheter-har-kritisk-tilgang-men-nekter-a-snakke/2-1-1777253">DN 14. februar</a> uttrykker PST frustrasjon over at ansatte i norske virksomheter i mindre grad er tilgjengelige for forebyggingssamtaler. Kan det være at PSTs metoder utfordrer rettsstaten på en slik måte at de gjør arbeidet med å sikre Norge vanskeligere?</p>



<h2 class="wp-block-heading">Hva er forebyggingssamtaler?</h2>



<p>PST gjør forebyggingssamtaler med personer som ikke har gjort noe straffbart. De bruker det som et konkret virkemiddel for å kartlegge og forebygge trusler. Forutsetningen for å gjennomføre en samtale er at PST har kartlagt enkeltpersoner eller miljøer som potensielt utgjør en trussel.</p>



<figure class="wp-block-pullquote"><blockquote><p>Både form og innhold kan disse politimetodene skape usikkerhet knyttet til overvåkning og bruk av makt.</p></blockquote></figure>



<p>Dette er en form for over overvåkning, og nettopp uklarhetene rundt forebyggingssamtalene kan forsterke de negative effektene av overvåkning.</p>



<h2 class="wp-block-heading">Rettsstatens prinsipper bygger tillit</h2>



<p>Rettsstatsprinsipper er til for å verne borgerne. Som en heldig bieffekt gir de også en stat bygget på tillit. Utgangspunktet i en rettsstat er at myndighetene ikke har noe med privatlivet til borgerne eller opplysningene til virksomhetene å gjøre, uten at det er godt begrunnet. Gode grunner kan for eksempel være kriminalitetsbekjempelse, nasjonal sikkerhet eller andre viktige samfunnshensyn. Men det må også rammes inn av et solid lovverk.</p>



<p>Problemet med forebyggingssamtaler er at de beveger seg i rettsstatens yttergrense. De har et svakt og lite utviklet rettslig grunnlag. Både form og innhold kan disse politimetodene skape usikkerhet knyttet til overvåkning og bruk av makt.</p>



<h2 class="wp-block-heading">Eksempler på problematisk metodebruk</h2>



<p>Når det gjelder form, så kan både&nbsp;DNs artikkel 14. februar&nbsp;med personer i sikkerhetssensitive virksomheter, og PSTs «dawn raid» mot ungdom som er aktive i radikale grupper på nettet, tjene som eksempel metodebruk som kan forsterke negative konsekvenser.</p>



<p>PST oppsøkte en rekke barn hjemme tidlig om morgenen 13. juni i fjor, i en koordinert aksjon for å ta en prat om ytringer de hadde kommet med på nett. PST selv omtaler det som en « «skånsom håndsrekning». Det er enkelt å tenke seg mer skånsomme måter å gjennomføre en forebyggingssamtale på.</p>



<h2 class="wp-block-heading">Uformelle møter svekker tilliten</h2>



<p>I DNs artikkel leser vi om at enkeltpersoner kontaktes direkte og at samtalen kan gjennomføres på «kafé eller restaurant. Det kan være å gå en tur i en park, eller ta en biltur.» Men det er også påpekt at det ikke må virke for hemmelig.</p>



<p>Personer som er undergitt virksomhetenes taushetsplikt, skal altså dele informasjon med PST på et tynt rettslig grunnlag, gjerne på en kafé og uten noen form for notoritet. Hvem ville i den sikkerhetspolitiske situasjonen vi står i dra på kafé med en tilfeldig person for å snakke om sikkerheten i virksomheten?</p>



<p><a href="https://www.dn.no/innlegg/overvakning/sikkerhetspolitikk/jus/psts-forebyggingssamtaler-beveger-seg-i-rettsstatens-yttergrense/2-1-1788796"><em>Dette innlegget sto på trykk først i DN 7. mars 2025.</em></a></p>



<p></p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2025/03/12/psts-forebyggingssamtaler-beveger-seg-i-rettsstatens-yttergrense/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Ikkje hopp på KI-toget uten ein plan for å hoppe av</title>
    <link>https://www.personvernbloggen.no/2025/01/23/ikkje-hopp-pa-ki-toget-uten-ein-plan-for-a-hoppe-av/</link>
    <comments>https://www.personvernbloggen.no/2025/01/23/ikkje-hopp-pa-ki-toget-uten-ein-plan-for-a-hoppe-av/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2025/01/Datatilsynet_Arild-200x200.jpg</avatar>
    <pubDate>Thu, 23 Jan 2025 11:00:41 +0000</pubDate>
    <dc:creator><![CDATA[Arild Opheim]]></dc:creator>
    		<category><![CDATA[Arbeidsliv]]></category>
		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[Informasjonssikkerhet]]></category>
		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[Personvernforordningen (GDPR)]]></category>
		<category><![CDATA[Teknologi]]></category>
		<category><![CDATA[bossware]]></category>
		<category><![CDATA[Copilot]]></category>
		<category><![CDATA[digitalisering]]></category>
		<category><![CDATA[DPIA]]></category>
		<category><![CDATA[exit-strategi]]></category>
		<category><![CDATA[generativ kunstig intelligens]]></category>
		<category><![CDATA[integrert KI]]></category>
		<category><![CDATA[M365 Copilot]]></category>
		<category><![CDATA[NTNU]]></category>
		<category><![CDATA[Overvåking]]></category>
		<category><![CDATA[personvern]]></category>
		<category><![CDATA[personvernkonsekvensvurdering]]></category>
		<category><![CDATA[regulatorisk sandkasse]]></category>
		<category><![CDATA[sandkassa]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3976</guid>
    <description><![CDATA[Det har vore ein røff start på året for mykje av den skinnegåande trafikken her i landet. Berre ordet &#171;tog&#187; kan nok framkalle fukt i augekroken for pendlarar. Men KI-toget dundrer vidare. Kanskje faretruande fort?&#160;Og mange kan nok kjenne på ei frykt for å bli ståande igjen på perrongen. Etter den første bølga med generative [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p>Det har vore ein røff start på året for mykje av den skinnegåande trafikken her i landet. Berre ordet &laquo;tog&raquo; kan nok framkalle fukt i augekroken for pendlarar. Men KI-toget dundrer vidare. Kanskje faretruande fort?&nbsp;Og mange kan nok kjenne på ei frykt for å bli ståande igjen på perrongen.</p>



<p>Etter den første bølga med generative KI-verktøy som kunne gjere mykje artig, var 2024 året for integrerte KI-verktøy i systema vi allereie brukar. Slik som Microsofts M365 Copilot. Vi blir lokka med ein enklare og meir effektiv arbeidskvardag. Men det har også ein pris. Ikkje berre i kroner og øre.</p>



<h2 class="wp-block-heading">Grundig kalkyle frå NTNU</h2>



<p>Kva den prisen blir, er eit komplekst reknestykke. Så kva er vel betre enn at ein tung og truverdig aktør som NTNU tok på seg oppgåva med å rekne seg fram til eit svar. I god akademisk ånd gjekk dei grundig til verks. Og dei involverte oss i Datatilsynet ved å bli med i vår regulatoriske sandkasse. Det er eit veiledningtilbud, der vi kan gå djupare i materien – og ja, på ein måte vere meir løysningsorienterte – enn rammene tillet oss i tradisjonelle veiledningsformer.</p>



<p>Vi merka at mange «der ute» venta i spenning på vurderingane og erfaringane frå prosjektet. I slutten av november lanserte vi rapporten som ser på korleis ein stor offentleg aktør som NTNU eventuelt kan ta i bruk M365 Copilot. </p>



<p><a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/ntnu-sluttrapport-copilot-med-personvernbriller-pa/">Sjå rapporten «Copilot med personvernbriller på»</a>.</p>



<p>Før det hadde NTNU også laga ein rapport med viktige funn utover det reint personvernmessige, der dei tar for seg både forvaltning, opplæring, økonomiske kostnader og korleis eit slikt verktøy kan påverke organisasjonen og arbeidsmiljøet.</p>



<p><a href="https://www.ntnu.no/documents/10507/1350391340/2024-06-17+NTNU+Funnrapport+Pilotere+Copilot+for+Microsoft+365.pdf/f29def95-c64f-067c-3f03-6f5adb120dbc?t=1718604131532">Sjå NTNUs funnrapport</a>.</p>



<h2 class="wp-block-heading">Forsiktig med den røde knappen</h2>



<p>Hovedbudskapet er at verksemder bør vere varsame med å berre trykke på den røde knappen og ta i bruk dette eller liknande integrerte KI-verktøy utan å gjere grundige vurderingar i forkant, i tillegg til å sikre kontrollmekanismar og god opplæring av brukarane. For dette er kraftfulle saker.</p>



<p>Begge rapportane er pedagogisk oppbygd og delt inn i 8-9 funn eller hovedpunkt. Det er verdt å lese dei begge, men som ein appetittvekker, skal du få fem sentrale punkt her: &nbsp;</p>



<h2 class="wp-block-heading">1. <strong>Start med ein strategi.</strong></h2>



<p>Definer tydeleg kva verksemda ønsker å oppnå, kva områder som er aktuelle for KI-bruk og kva områder ein bør halde utanfor. Som hovedregel er generativ KI best når du allereie kan det du vil at den skal hjelpe deg med, du har kapasitet til å kvalitetssikre arbeidet, og er villig til å ta det heile og fulle ansvaret for feil i det den leverer.</p>



<h2 class="wp-block-heading">2. <strong>Sørg for orden i eige hus.</strong></h2>



<p>Dette er superviktig. Copilot finn (og behandlar) all informasjon du har tilgang til. Det er godt muleg at du har tilgang til mykje meir informasjon enn du er klar over. Det kjem an på om verksemda di har stålkontroll, eller ikkje, på tilgangsstyring og alt som fins av personopplysningar i systema som blir brukt. Sjølv om lova krev at verksemder har stålkontroll – om enn i meir juridiske formuleringar – ville det vere naivt av Datatilsynet å ta for gitt – slik leverandøren av Copilot gjer – at absolutt alle faktisk har det.</p>



<p>Ei utfordring med Copilot er at svakheter i &laquo;den digitale grunnmuren&raquo; blir synlege og kraftig forsterka med eit verktøy som har tilgang til alt du har tilgang til &#8211; og veit å utnytte seg av det.</p>



<p>Eller for å ta den positive tilnærminga: premien til dei som har skikkeleg orden i eige hus, er at dei har ein langt kortare veg til å kunne ta i bruk integrert KI, som for eksempel Copilot.</p>



<h2 class="wp-block-heading">3. <strong>Tenk grundig (og kreativt) gjennom kva som kan gå galt?</strong></h2>



<p>Brukarar vil dele alle typar data med, og bruke, generativ kunstig intelligens til det dei kan. Sånn er det berre. Er det muleg, vil det bli gjort. Det er viktig å ta med seg inn når ein skal gjere vurderingar av kva personvernkonsekvensar det vil få å ta i bruk eit slikt verktøy. Ein kan ikkje ta for gitt at folk berre brukar verktøyet slik sjefane har tenkt.</p>



<p>Og apropos sjefane: dette verktøyet kan brukast som bossware. «Kan» her som i teknologisk – ikkje juridisk – mulighet. La meg sitere frå NTNUs funn: </p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>«arbeidsgivere kan vurdere ansattes prestasjoner og adferd basert på skriftlig innhold de har tilgang til, som filer, dokumenter, Teams-chatter, e-postkorrespondanse, Teams-innhold, følelsesreaksjoner (emojis), transkripsjoner fra møter med automatisk opptak, osv. Ansatte har ingen mulighet til å finne ut om en slik vurdering av dem selv har skjedd.»</p>
</blockquote>



<p>NTNU oppdaga at det er lett å få verktøyet til å seie noko om humør og sinnsstemning til andre tilsette. Og:</p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>«Når Copilot har for lite informasjon å jobbe med, kan det oppstå utfordringer med løgn og hallusinasjoner. Det er sannsynlig at Copilot kan &laquo;finne på&raquo; følelser for de ansatte, noe som gjør denne problemstillingen enda mer utfordrende.»</p>
</blockquote>



<p>Ein kanskje litt kontroversiell tanke i NTNU-rapporten er å vurdere om for eksempel leiarar med personalansvar ikkje skal få tilgang til Copilot, mens tilsette «på gølvet» kan få det?</p>



<p>På toppen av det heile er dette eit verktøy i stadig endring – på godt og vondt. Feil blir fortløpande retta, verktøyet blir stadig justert, men nye funksjonar blir også stadig lagt til. Det gjer det utfordrande å forvalte. Det krev ei vaken IT-avdeling. Det krev masse opplæring. Og det krev disiplinerte brukarar.</p>



<p>Så sett frå eit personvernperspektiv; det er mykje som kan gå galt og mange ledd det kan svikte i. Og det er verksemda sitt ansvar å ha tenkt grundig gjennom alt.</p>



<h2 class="wp-block-heading">4. <strong>Vurder alternative løysingar.</strong></h2>



<p>Viss nokon av blomstrane i bedet ser litt tørste ut, set du ikkje heile hagen under vatn. Då er vi tilbake til strategien. Kanskje held det med eit par meir spissa KI-verktøy, som gjer akkurat dei arbeidsoppgåvene det er (mest) behov for, i staden for dei integrerte som skal slurpe i seg det som fins av data i organisasjonen?</p>



<p>Det er definitivt verd å ta med i kalkuleringane, når arbeidet i organisasjonen skal effektiviserast, at det kan vere langt meir ressurskrevande å forvalte eit stort og komplekst verktøy, enn eit par små.</p>



<p>Og &#8211; kanskje litt pussig, men eit siste punkt:</p>



<h2 class="wp-block-heading">5. &nbsp;<strong>Ikkje hopp på KI-toget utan ein exit-strategi</strong>.</h2>



<p>Ha ein klar plan for korleis verktøyet kan bli skrudd av, om nødvendig, før du slår det på.</p>



<p>Nederland har nyleg fraråda statlege verksemder å ta i bruk Copilot. Nokon vil kanskje påstå at vi i praksis gjer det samme. Men nei, teknologien har mykje bra i seg, og det handlar om å finne gode og praktiske tilnærmingar for å ta den i bruk på ein forsvarleg måte. Vår oppfordring er å gjere det i små og kontrollerte steg.</p>



<p>Men &#8211; dersom både dei som bygger KI-toget og passasjerane som kastar seg på er drevet av frykt for å ikkje vere fremst i toget, er det nok oppskrifta på ein ganske forutsigbar 💥 🙈</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2025/01/23/ikkje-hopp-pa-ki-toget-uten-ein-plan-for-a-hoppe-av/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Hvordan påvirker tillit vår oppførsel på nett?</title>
    <link>https://www.personvernbloggen.no/2024/10/14/hvordan-pavirker-tillit-var-oppforsel-pa-nett/</link>
    <comments>https://www.personvernbloggen.no/2024/10/14/hvordan-pavirker-tillit-var-oppforsel-pa-nett/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2020/08/Profilbilde_Magnus-scaled-e1597911334538-200x200.jpg</avatar>
    <pubDate>Mon, 14 Oct 2024 09:29:26 +0000</pubDate>
    <dc:creator><![CDATA[Magnus Mühlbradt]]></dc:creator>
    		<category><![CDATA[Ikke kategorisert]]></category>
		<category><![CDATA[Personvernforordningen (GDPR)]]></category>
		<category><![CDATA[Sosiale medier]]></category>
		<category><![CDATA[Apper]]></category>
		<category><![CDATA[personvern]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3955</guid>
    <description><![CDATA[Vi har varierende tillit til de forskjellige virksomhetene som behandler personopplysningene våre. Men påvirker egentlig graden av tillit hva vi gjør, eller ikke gjør, på nett? Personvernundersøkelsen 2024, utført av analyseselskapet Opinion på vegne av Datatilsynet, gir innsikt i dette spørsmålet. Et landsrepresentativt utvalg på 1519 personer over 15 år svarte på undersøkelsen i januar [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p><strong>Vi har varierende tillit til de forskjellige virksomhetene som behandler personopplysningene våre. Men påvirker egentlig graden av tillit hva vi gjør, eller ikke gjør, på nett?</strong></p>



<p>Personvernundersøkelsen 2024, utført av analyseselskapet Opinion på vegne av Datatilsynet, gir innsikt i dette spørsmålet. Et landsrepresentativt utvalg på 1519 personer over 15 år svarte på undersøkelsen i januar i år.</p>



<h2 class="wp-block-heading">Hvilke virksomheter har vi tillit til?</h2>



<p>Undersøkelsen tok blant annet for seg folks holdninger til hvordan virksomheter håndterer personopplysninger. Respondentene fikk følgende spørsmål om tillit:  </p>



<figure class="wp-block-image size-full"><img loading="lazy" decoding="async" width="945" height="932" src="https://www.personvernbloggen.no/wp-content/uploads/2024/10/hvor-stor-eller-liten-tillit-1.png" alt="" class="wp-image-3957" srcset="https://www.personvernbloggen.no/wp-content/uploads/2024/10/hvor-stor-eller-liten-tillit-1.png 945w, https://www.personvernbloggen.no/wp-content/uploads/2024/10/hvor-stor-eller-liten-tillit-1-480x473.png 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) 945px, 100vw" /></figure>



<p>Svarene viser at det er klare forskjeller mellom hvem vi har tillit til. Grovt oppsummert kan det sies at flere offentlige virksomheter nyter høy tillit når de behandler våre opplysninger, mens private virksomheter har mindre. De vi har minst tillit til er tjenestene som er levert av de store tekno-gigantene, slik som Google og Meta. 75 prosent har liten eller ingen tillit til hvordan søkemotorer oppbevarer og bruker personopplysninger på, mens 83 prosent har liten eller ingen tillit til hvordan sosiale medier gjør det.</p>



<p>Den lave tilliten til denne type tjenester kan ses i sammenheng med negativ medieomtale over flere år når det kommer til misbruk av brukernes personopplysninger. Eksempler på dette er Cambridge Analytica-saken fra 2018, og senest i år kom det frem at flere sosiale medie-tjenester brukte eller planla å <a href="https://www.datatilsynet.no/aktuelt/aktuelle-nyheter-2024/meta-vil-bruke-brukernes-bilder-og-innlegg-til-a-utvikle-ki/" target="_blank" rel="noreferrer noopener">bruke innholdet til brukerne sine for å trene kunstig intelligens</a>.</p>



<p>Apper for spill og underholdning skiller seg også negativt ut. Spillindustrien, som nå overgår filmindustrien i inntjening, krever ofte omfattende mengder personopplysninger av spilleren for å opprette brukerkonto. I tillegg kan mange opplysninger bli samlet inn mens du spiller. Dette reiser viktige spørsmål om hvordan de ivaretar personvernhensyn, særlig med tanke på yngre spillere. At folk har lav tillit til disse kan tolkes som om at de er kritiske og uttrykker en sunn skepsis til hvordan slike tjenester behandler personopplysninger.</p>



<h2 class="wp-block-heading">Fører manglende tillit til at vi faktisk endrer oppførsel?</h2>



<p>Men hvordan påvirker tillit vår oppførsel på nett? Det kan være vanskelig å koble en holdning til en handling. For å grave mer i dette, spurte vi folk om de har handlet på en bestemt måte i tilfeller hvor de er usikre på hvordan deres opplysninger blir brukt.</p>



<figure class="wp-block-image size-full is-resized"><img loading="lazy" decoding="async" width="605" height="481" src="https://www.personvernbloggen.no/wp-content/uploads/2024/10/aktiviterer-som-folge-av-usikkerhet.png" alt="" class="wp-image-3958" style="width:822px;height:auto" srcset="https://www.personvernbloggen.no/wp-content/uploads/2024/10/aktiviterer-som-folge-av-usikkerhet.png 605w, https://www.personvernbloggen.no/wp-content/uploads/2024/10/aktiviterer-som-folge-av-usikkerhet-480x382.png 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) 605px, 100vw" /></figure>



<p></p>



<p>På spørsmålet om hvorvidt folk har tatt grep eller unnlatt å gjøre noe på grunn av denne usikkerheten, er svaret &nbsp;tydelig «ja» for store deler av befolkningen. 64 prosent har unnlatt å ta i bruk en tjeneste eller et produkt som følge av at vi er usikre på hvordan personopplysningene blir brukt, og 74 prosent har latt være å laste ned en app.</p>



<p>At folk ikke laster ned visse apper kan være et tegn på sunn skepsis. <a href="https://www.datatilsynet.no/regelverk-og-verktoy/rapporter-og-utredninger/personopplysninger-og-det-digitale-annonsemarkedet/" target="_blank" rel="noreferrer noopener">Mange apper samler inn mer informasjon om oss enn det som er nødvendig</a>. Mange aktører videreselger også informasjon om oss til annonsører, for at de skal sende deg målrettet reklame.</p>



<p>Undersøkelsen gir et tydelig signal til kommersielle aktører: Hvis de ikke oppfyller brukernes forventninger til personvern, risikerer de at brukere lar være å ta i bruk tjenestene deres eller at de begrenser aktiviteten sin i tjenesten.</p>



<h2 class="wp-block-heading">Ytringsfriheten på kommersielle plattformer?</h2>



<p>Undersøkelsen viser at mange lar være å delta i meningsutvekslinger på nett fordi de er usikre på hvordan opplysningene kan bli brukt. En betydelig andel, 47 prosent, har unngått diskusjoner i sosiale medier og nettaviser, og 35 prosent har gått så langt at de har slettet en konto i sosiale medier. Dette kan potensielt påvirke den offentlige debatten i en tid preget av polarisering og meningssiloer. Mye av den offentlige meningsutvekslingen foregår på plattformer som mange er skeptiske til å bruke.</p>



<p>Kanskje mest bekymringsverdig er at 14 prosent, en ikke ubetydelig andel av befolkningen, har unnlatt å søke etter hjelp om sensitive problemer i en søkemotor. For mange er et enkelt søk på Google det første steget mot å få hjelp, og når tilliten til disse plattformene svikter, kan det få alvorlige konsekvenser. </p>



<p>Oppsummert viser undersøkelsen at det er varierende tillit til de forskjellige aktørene på nett, og at mange unnlater å ta i bruk forskjellige tjenester på grunn av usikkerhet rundt hvordan deres personopplysninger håndteres. Dette viser at tillit er avgjørende for hvordan vi bruker digitale plattformer og tjenester. &nbsp;</p>



<p></p>



<figure class="wp-block-table"><table class="has-fixed-layout"><tbody><tr><td><strong>Om Personvernundersøkelsen 2024<br></strong>Personvernundersøkelsen 2024 er en landsrepresentativ kartlegging av befolkningens forhold til personvern som Datatilsynet gjennomfører omtrent hvert femte år. Dette innlegget er ett av tre som tar for seg hovedfunnene.<br><a href="https://www.datatilsynet.no/contentassets/919fa7813a98444d8726bc937b0ab602/personvernundersokelsen-2024.pdf">Du finner hele rapporten fra undersøkelsen her.</a></td></tr></tbody></table></figure>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2024/10/14/hvordan-pavirker-tillit-var-oppforsel-pa-nett/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>IKT-Norge i egen snubletråd</title>
    <link>https://www.personvernbloggen.no/2022/02/11/ikt-norge-i-egen-snubletrad/</link>
    <comments>https://www.personvernbloggen.no/2022/02/11/ikt-norge-i-egen-snubletrad/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2018/09/Janne-Stang-Dahl_avatar_1535984869-200x200.jpg</avatar>
    <pubDate>Fri, 11 Feb 2022 15:13:34 +0000</pubDate>
    <dc:creator><![CDATA[Janne Stang Dahl]]></dc:creator>
    		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[Internasjonalt]]></category>
		<category><![CDATA[Personvernforordningen (GDPR)]]></category>
		<category><![CDATA[Sosiale medier]]></category>
		<category><![CDATA[Apper]]></category>
		<category><![CDATA[Facebook]]></category>
		<category><![CDATA[personvern]]></category>
		<category><![CDATA[Samtykke]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3589</guid>
    <description><![CDATA[IKT-Norge går høyt ut mot Datatilsynets lovtolkning, og desto hardere blir mageplasket når de avslører manglende juridisk forståelse. Samtidig er demokratiske spilleregler truet. På lørdag skrev Øyvind Husby at Datatilsynet bommer om felles behandlingsansvar ved bruk av Facebook-side. Han sier dette er problematisk fordi vi som tilsyn forventer at vår vurdering skal være en mal [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p><em>IKT-Norge går høyt ut mot Datatilsynets lovtolkning, og desto hardere blir mageplasket når de avslører manglende juridisk forståelse. Samtidig er demokratiske spilleregler truet.</em></p>



<p>På lørdag skrev Øyvind Husby at <a href="https://www.dn.no/innlegg/personvern/jus/gdpr/innlegg-datatilsynet-snubler-i-jusen-om-facebook/2-1-1159196" target="_blank" rel="noreferrer noopener">Datatilsynet bommer om felles behandlingsansvar ved bruk av </a>Facebook-side. Han sier dette er problematisk fordi vi som tilsyn forventer at vår vurdering skal være en mal for andre.</p>



<p>Vi har vært tydelige på at vi ikke opptrådte som tilsyn da vi vurderte vår bruk av Facebook. Vi har presisert at man ikke trenger å bruke samme metode som oss og at alle må gjøre sine egne vurderinger.</p>



<h2 class="wp-block-heading"><strong>Misforstått</strong></h2>



<p>Når det gjelder jussen, ser Husby ut til å tro at det må foreligge en eksplisitt avtale om formål og midler for at felles behandlingsansvar skal inntre.</p>



<p>I Wirtschaftsakademie- og Fashion ID-dommene som Husby peker på, forelå det ingen enighet mellom partene. Partene brukte dessuten personopplysninger til litt ulike ting. Likevel konkluderte EU-domstolen med felles behandlingsansvar. Begge parter bidro nemlig til innsamling av data og å sette rammene for behandlingen, samtidig som de hadde en felles økonomisk interesse. Det er dette vi har lagt til grunn i våre vurderinger.</p>



<p>I førstnevnte dom finner vi uttalelser om omfanget av felles behandlingsansvar for Facebook-sider. Vi er enige med IKT-Norge i at man ikke har ansvar for alt som skjer på Facebook, men basert på dommens ordlyd kom vi frem til at omfanget av felles behandlingsansvar er videre enn hva Facebook legger opp til i sitt avtaleverk. IKT-Norge ser ut til å stole blindt på dette avtaleverket.</p>



<p>Huseby får det til å se ut som at vi står alene i vår forståelse, men vår tolkning er i tråd med retningslinjene til Personvernrådet, der alle 30 datatilsyn i EØS er medlemmer.</p>



<h2 class="wp-block-heading"><strong>Vranglære</strong></h2>



<p>At andre er uenig i vår risikovurdering, er uproblematisk. Her prøver imidlertid IKT-Norge, et interesseorgan som representerer Facebook, å snu opp ned på det EU-domstolen har sagt om Facebook.</p>



<p>Det er skremmende, men ikke nytt.</p>



<p>Schrems II-dommen, som også gjaldt Facebook, sier litt forenklet at USA ikke har god nok beskyttelse av personopplysninger. <a href="https://www.politico.eu/article/despite-eu-court-ruling-facebook-says-us-is-safe-to-receive-europeans-data/">Facebook har tolket seg bort fra dommen</a> og sender derfor data fritt til USA likevel.</p>



<p>Vi vet at Facebook ofte gjemmer seg bak interesseorganer når de skal lobbe. Dette er vanlig taktikk i Brussel, og vi må være oppmerksomme på det samme her hjemme.</p>



<h2 class="wp-block-heading"><strong>Udemokratisk</strong></h2>



<p>Husby avslutter innlegget sitt med å påpeke demokratisk deltakelse – og det er kjernen av problemet.</p>



<p>Facebook bestemmer hvem som får og ikke får se ulike budskap, basert på inngripende sporing som kan medføre nedkjølingseffekt. Nylige avsløringer viser at algoritmene premierer destruktivt og splittende innhold, og Facebook har blitt anklaget for å bidra til vold mot rohingyaene i Myanmar.</p>



<p>At Facebooks interesseorganisasjon skal definere demokratisk deltakelse, er mildt sagt problematisk.</p>



<p>Vårt mål er at Facebook skal respektere demokratiet og rettighetene våre. Det er trist at IKT-Norge har andre mål.</p>



<p> <em>Dette innlegget ble først publisert i <a href="https://www.dn.no/innlegg/personvern/facebook/eu-domstolen/innlegg-skal-facebooks-interesseorganisasjon-definere-demokratisk-deltagelse-virkelig/2-1-1161082" target="_blank" rel="noreferrer noopener">Dagens Næringsliv (02.02.22)</a>, og er skrevet av konstituert direktør Janne Stang Dahl og seksjonssjef Tobias Judin. </em></p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2022/02/11/ikt-norge-i-egen-snubletrad/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Kan jeg få dra av deg nissedrakta?</title>
    <link>https://www.personvernbloggen.no/2021/12/07/kan-jeg-fa-dra-av-deg-nissedrakta/</link>
    <comments>https://www.personvernbloggen.no/2021/12/07/kan-jeg-fa-dra-av-deg-nissedrakta/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2021/12/20210907_Datatilsynet_Kristine_104847_BW_mindre-200x200.jpg</avatar>
    <pubDate>Tue, 07 Dec 2021 13:18:46 +0000</pubDate>
    <dc:creator><![CDATA[Kristine Stenbro]]></dc:creator>
    		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[ID-tyveri]]></category>
		<category><![CDATA[Informasjonssikkerhet]]></category>
		<category><![CDATA[Nettvett]]></category>
		<category><![CDATA[datakriminalitet]]></category>
		<category><![CDATA[Passord]]></category>
		<category><![CDATA[personvern]]></category>
		<category><![CDATA[phishing]]></category>
		<category><![CDATA[tofaktorautentisering]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3554</guid>
    <description><![CDATA[I Maskorama på NRK får du avslørt identiteten din om du ikke er flink nok. I den virkelige verden kan du bli frastjålet identiteten. Det var Abid Raja som skjulte seg inni NRKs nissedrakt, men verden er full av nisser. Er du en av dem? Ikke? Tja, vi får se på det. Det er en [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p>I Maskorama på NRK får du avslørt identiteten din om du ikke er flink nok. I den virkelige verden kan du bli frastjålet identiteten.</p>



<p>Det var Abid Raja som skjulte seg inni NRKs nissedrakt, men verden er full av nisser. Er du en av dem? Ikke? Tja, vi får se på det. Det er en viss fare for at du kan føle deg avkledd, om du leser videre. Men ikke stopp! Det vil være verdt det. Etterpå kommer du til å gjøre noe smart.</p>



<p>I disse dager, hvor vi forsøker å balansere mellom effektiv julehandel og nye koronavirusvarianter, velger stadig flere av oss å gjøre julehandelen på internett. (Ingen ønsker vel omikron som julemiddagsgjest). Vi er på kort tid innom et stort antall nettbutikker for å handle gaver og bestille julemat og julepynt. I tillegg er det avgjørende å få dokumentert all denne julekosen på sosiale medier, hvor vi snør inne i stemningsfulle oppdateringer om julepyntede hus, lykkelige familiesamlinger og familiehunder utkledd som Rudolf. Med andre ord –vår digitale aktivitet intensiveres. Det meste av denne aktiviteten krever innlogging med brukernavn og passord, for å være helt sikker på at du faktisk er deg, og for at betalingsinformasjonen du oppgir skal bli tatt godt vare på. Muligheten for å bidra til å beskytte deg selv og dine data ligger derfor rett foran deg! Men i effektivitetens (og latskapens) navn forsøker vi å gjøre all denne tidkrevende innloggingen så enkel for oss selv som mulig. Ingen er vel interessert i hva jeg har handlet på Zalando uansett?</p>



<h2 class="wp-block-heading">Hva er ditt favorittpassord?</h2>



<p>Så vi gjenbruker våre enkle favorittpassord for å slippe å komme i den kjedelige situasjonen hvor vi må trykke «glemt passord». Juleinnkjop2020 oppgraderes til Juleinnkjop2021, Vinter2019 får holde et par år til, og Emilie21092001 går jo aldri ut på dato.</p>



<p>Er det ikke også slik at mye av julehandelen foregår i ledige stunder mellom digitale møter og andre jobbaktiviteter? På den bærbare pc-en, mens du er innlogget på jobbens interne nettverk via fjernaksessløsninger? Og du gjenbruker kanskje også de samme enkle passordene her? Eller?</p>



<figure class="wp-block-pullquote"><blockquote><p>&laquo;Mennesker er vanedyr, og erfaring tilsier at vi gjenbruker passord fordi det gjør det lettere å huske. Et tidligere eksponert passord kan prøves flere steder, og én tapt konto kan fort bli flere.&raquo;</p><cite> Sitat fra Nasjonal Sikkerhetsmyndighets rapport Risiko 2021 </cite></blockquote></figure>



<p>I rapporten Risiko 2021 forklarer Nasjonal Sikkerhetsmyndighet (NSM) hvordan gjenbruk av passord mellom brukerkonti med ulikt tilgangsnivå eller gjenbruk av passord på private og jobbrelaterte konti, svekker virksomhetenes sikkerhet.</p>



<p>Microsoft har gjennomført en studie som viser at rundt 44 millioner brukere gjenbruker passordene fra og med 2020. I 2019 viste en studie at rundt 72 prosent av brukerne resirkulerte eller gjenbrukte passordene sine. 63  prosent av disse brukerne brukte nøyaktig samme passord for alle sine kontoer. (Les om studien på TechRadar: <a href="https://www.techradar.com/news/millions-of-microsoft-users-are-reusing-passwords" target="_blank" rel="noreferrer noopener">Millions of Microsoft users are reusing passwords | TechRadar</a>)</p>



<h2 class="wp-block-heading">Passordhumor</h2>



<p>Komikeren Michael McIntyre harselerer med intens innlevelse i en Netflix-spesial om folks forhold til passord. Han mimrer om internettets liberale barndom, da det var fritt frem for oss å ha et passord med bare små bokstaver. Etter hvert som internettet ble mer populært, begynte virksomhetene der ute å legge føringer for passordene. Vi måtte ha minst én stor bokstav. Det ble som regel den første bokstaven i passordet vi allerede hadde. Så måtte vi ha tall, og alle plasserte et 1-tall etter det gamle passordet. Og når det etter hvert kom krav om minst ett spesialtegn, landet alles øyner på utropstegnet. Det passer fint til slutt, bak vårt kjære, trofaste passord. Hvordan kan det være så morsomt at salen bryter sammen i latter av en komikers passe unyanserte gjennomgang av passordhistorien? Fordi skremmende mange kjenner seg igjen i fortellingen.</p>



<p>Hackere har gjennom lang erfaring og analysering av våre passord-uvaner opparbeidet seg lister over våre 100, 1000 og kanskje 10&nbsp;000 mest brukte passord. Disse passordlistene benyttes i målrettede og automatiserte angrep mot et stort antall virksomheter og privatpersoner samtidig – og kontinuerlig! Finnes ditt enkle passord på denne listen, er både du og muligens din arbeidsgiver et lett bytte for angriperne.</p>



<p>NCSC (Nasjonalt cybersikkerhetssenter) utførte en studie på villige organisasjoner for å teste hvor mottakelige de var for slike angrep. 75 prosent av organisasjonene hadde minst én konto, som brukte et av topp 1000-passordene. 87 prosent hadde minst én konto med et passord i topp 10 000.</p>



<h3 class="wp-block-heading">Det svakeste leddet</h3>



<p>NSM skriver at svake passord fremdeles er den letteste veien inn i virksomheters systemer. De rapporterer om utstrakte funn av korte passord som er lette å gjette, eller som lar seg knekke med automatiserte angrep. Som «Sommer2020» og «September2020». Jeg anbefaler å ta en kikk på <a href="https://nsm.no/fagomrader/digital-sikkerhet/rad-og-anbefalinger-innenfor-digital-sikkerhet/rad-og-anbefalinger-om-passord" target="_blank" rel="noreferrer noopener">NSMs tips for passord</a>.</p>



<p>Microsoft uttaler at 99,9 prosent av alle identitetsrelaterte angrep kan stoppes ved bruk av tofaktorautentisering. Det betyr at man i tillegg til ordinært brukernavn og passord, benytter en ekstra «faktor», som bank-id eller SMS-kode på telefonen for å bevise sin identitet under påloggingen.</p>



<p><a href="https://nsm.no/fagomrader/digital-sikkerhet/rad-og-anbefalinger-innenfor-digital-sikkerhet/rad-og-anbefalinger-om-passord" target="_blank" rel="noreferrer noopener">NSM anbefaler alle privatpersoner og virksomheter å innføre en slik ekstra autentisering der det er teknisk mulig.</a></p>



<h3 class="wp-block-heading">Ligg unna lenka!</h3>



<p>Vår uforsiktige og makelige uvane med å opprette og gjenbruke enkle passord, er ikke den eneste faren. Fremdeles blir vi urovekkende ofte forsøkt «fralurt» personlig informasjon, særlig påloggingsinformasjon og bank- og kontoinformasjon, fra angripere som utgir seg for å være noen som kunne ha vært en del av ditt nettverk.</p>



<p>På sosiale medier deler vi informasjon om hvem som er vår arbeidsgiver, hvor vi bor, hvem vi er i familie med, hvilket fotballag vi heier på eller hvilke organisasjoner og innsamlingsaksjoner vi donerer penger til. Alt dette er informasjon som kan brukes til å skreddersy et angrep nettopp mot deg. Vi hører stadig oftere om svindelforsøk hvor angriperne benytter eposter og SMS-er for å lure deg til å oppgi informasjon.</p>



<p>Telenor advarte nylig om et <a href="https://www.digi.no/artikler/telenor-advarer-mot-massivt-svindelforsok-pa-sms/515360" target="_blank" rel="noreferrer noopener">massivt svindelforsøk</a> i forbindelse med at deres mobilkunder fikk en tekstmelding, der de ble bedt om å laste ned en applikasjon for å høre talebeskjeder. Hvis man lastet den ned, vil man få et virus på mobilen som gir kriminelle tilgang til å plukke opp brukernavn, passord, betalingsinformasjon, kontaktlisten din og andre personlige opplysninger som kan brukes til ytterligere svindelforsøk.</p>



<p>Også Oslo kommune <a href="https://www.digi.no/artikler/oslo-kommune-advarer-mot-falsk-vaksine-sms/514142" target="_blank" rel="noreferrer noopener">måtte nylig advare mot falske SMS-er</a> i forbindelse med 3 vaksinedose. I disse tekstmeldingene ble man bedt om å oppgi personnummer og navn. Ikke helt unaturlig i disse tider?</p>



<p>Og har du mottatt gunstige Black Friday-tilbud på epost, gjerne fra en kjent nettbutikk, og klikket på en lenke og bestilt varer? <a href="https://www.digi.no/artikler/black-friday-fire-av-fem-sjekker-ikke-engang-at-nettadressen-er-riktig/515380" target="_blank" rel="noreferrer noopener">Du sjekket vel om nettsiden var den ekte?&nbsp; </a>&nbsp;</p>



<h3 class="wp-block-heading">Kan du stole på IT-sjefen?</h3>



<p>Angrepene blir stadig mer komplekse og vanskelige å oppdage for de fleste av oss. I det siste har det til og med dukket opp angrep hvor angriper utgir seg for å være IKT-avdelingen hos din arbeidsgiver. I en epost eller SMS ber de deg om å oppdatere ditt passord som et nødvendig tiltak etter en sikkerhetsoppdatering. Hadde du hatt samvittighet til å la være?</p>



<p>Ved å utgi seg for å være en troverdig avsender, er det større sannsynlighet for at vi lar oss lure til å åpne et vedlegg eller klikke på en lenke. Vanlige svindelmetoder og hva du kan gjøre for å oppdage og avverge dem, kan du blant annet lese mer om på <a href="https://www.politiet.no/rad/okonomisk-kriminalitet/nettsvindel/" target="_blank" rel="noreferrer noopener">Nettsvindel – Politiet.no</a>.</p>



<h3 class="wp-block-heading">Hvor ille kan det gå?</h3>



<p>Men hackerne har da ingen interesse av meg? Eller den lille kommunen jeg jobber i? Spør Østre Toten! Der ble kommunen utsatt for datainnbrudd og krevd for løsepenger. De hadde ikke tilgang til sine egne datasystemer og saksarkiv, og store mengder dokumenter havnet på avveie. Innbruddet fikk både driften og økonomien til kommunen ned i knestående. Og <a href="https://www.datatilsynet.no/aktuelt/aktuelle-nyheter-2021/varsel-om-vedtak-gebyr-til-ostre-toten-kommune/" target="_blank" rel="noreferrer noopener">Datatilsynet til å reagere</a>.</p>



<p>I 90-tallsfilmene skjedde datainnbrudd ved at kriminelle først hadde brutt seg fysisk inn på arbeidsplassen, så fant de lappen med passord som lå skjult under tastaturet. Voilá! Så dumme er vi ikke lenger, tenker vi selvtilfreds. Vi gjemmer heller passordene våre i et notat på telefonen. Vel, da er det faktisk smartere å gjøre som idiotene i 90-tallsfilmene. (Ikke at jeg skal oppfordre til å legge lapp under tastaturet, altså!) For det er langt større fare for digitale innbrudd enn fysiske.</p>



<p>Føler du deg avkledd nå?</p>



<p>Om det er en trøst, du er ikke alene. Men det er et selskap du ikke vil være en del av.</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2021/12/07/kan-jeg-fa-dra-av-deg-nissedrakta/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Data er det nye oljesølet</title>
    <link>https://www.personvernbloggen.no/2021/09/27/data-er-det-nye-oljesolet/</link>
    <comments>https://www.personvernbloggen.no/2021/09/27/data-er-det-nye-oljesolet/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2018/10/Kari-Laumann_avatar_1539256187-200x200.jpg</avatar>
    <pubDate>Mon, 27 Sep 2021 09:57:20 +0000</pubDate>
    <dc:creator><![CDATA[Kari Laumann]]></dc:creator>
    		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[Forbrukerrettigheter]]></category>
		<category><![CDATA[Personvernforordningen (GDPR)]]></category>
		<category><![CDATA[Teknologi]]></category>
		<category><![CDATA[GDPR]]></category>
		<category><![CDATA[personvern]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3502</guid>
    <description><![CDATA[Vår tids digitale utfordringer bærer i seg et element av allmenningens tragedie. Hvis data er den nye oljen, må vi snakke mer om forurensingen, utslippene og de kollektive skadevirkningene stordataalderen har medført.&#160; Dette innlegget stod på trykk i Morgenbladet fredag 24. september og er skrevet av Dag Mostuen Grytli og meg selv &#8211; vi jobber [&#8230;]]]></description>
        <content:encoded><![CDATA[
<h2 class="wp-block-heading">Vår tids digitale utfordringer bærer i seg et element av allmenningens tragedie. Hvis data er den nye oljen, må vi snakke mer om forurensingen, utslippene og de kollektive skadevirkningene stordataalderen har medført.&nbsp;</h2>



<h4 class="wp-block-heading"><em>Dette innlegget stod på trykk i Morgenbladet fredag 24. september og er skrevet av Dag Mostuen Grytli og meg selv &#8211; vi jobber begge i Seksjon for utredning, analyse og politikk i Datatilsynet. </em></h4>



<p>I 1962 publiserte den amerikanske biologen Rachel Carson&nbsp;<em>Den tause våren</em>, som er kjent som en av de viktigste ledestjernene for den globale miljøbevegelsen. Carsons oppgjør med sprøytemiddelindustrien førte til konkrete samfunnsendringer, og bidro til en forståelse av miljøødeleggelser som kollektiv skade: alles liv forringes og trues når økosystemene vi er en del av, dør.</p>



<p>Tiden er overmoden for å gjøre det samme med personvern. I en&nbsp;<a href="https://www.morgenbladet.no/aktuelt/kommentar/2021/09/10/vi-trenger-politikere-som-vil-jobbe-for-digital-selvraderett-skriver-lena-lindgren/" target="_blank" rel="noreferrer noopener">kommentar i Morgenbladet</a>&nbsp;etterlyser Lena Lindgren politikere som vil jobbe for digital selvråderett. Den regjeringsutnevnte Personvernkommisjonen er et godt sted å starte, og kommisjonen bør benytte anledningen til å sette de kollektive skadevirkningene av personvernkrenkelser og inngripende overvåkning på dagsordenen.</p>



<h2 class="wp-block-heading">«Jeg samtykker til at demokratiet forvitrer»</h2>



<p>Et menneske er ingen øy, og de siste årene har det skjedd en merkbar endring i hvordan personvernrettigheter forstås og debatteres. Beskyttelse av enkeltindividets grunnleggende rettigheter og friheter vil alltid være personvernets kjernefunksjon, men den kollektive verdien som følger av enkeltindividets vern, og de kollektive skadevirkningene av at personvernet svekkes, blir stadig mer presserende å snakke om.</p>



<p>Når en fellesressurs ødelegges fordi alle brukerne av ressursen handler til sitt eget beste, selv om de på lang sikt skader seg selv, kalles for allmenningens tragedie. Vår tids digitale utfordringer bærer i seg et element av dette: de digitale økosystemenes annonsedrevne overvåkningsmodell forurenser offentlighetssfærer og skader demokratier over hele kloden. På samme måte som en lang rekke ressursproblemer som vannmangel, overfiske og global oppvarming.</p>



<p>I tråd med den digitale tidsalderens ånd står vi fritt til å inngå avtaler med verdens største selskaper, hvor vi tvinges til å akseptere vilkår som bryter med grunnleggende rettigheter. Det finnes mange grunner til at personvernerklæringer og «jeg godtar»-knapper ikke fungerer. En av dem er at de kollektive skadevirkningene av individuelle valg er vanskelige å få øye på. Dette er også allmenningens tragedie.</p>



<p>Summen av den omfattende sporingen endrer forutsetningene for demokratiske friheter, som ytringsfriheten og muligheten til å søke informasjon. Hvis vi konstant mistenker at vi er overvåket, vil mange legge bånd på seg, noe som fører til en nedkjølingseffekt. Nedkjølingseffekten er spesielt kritisk for utsatte grupper som allerede føler seg utpekt og mistenkeliggjort, som varslere, minoriteter og andre som kanskje har meninger som ikke følger midtstrømmen.</p>



<h2 class="wp-block-heading">Uintenderte metaforer</h2>



<p>Mennesker er den eneste arten som forstår verden gjennom historier, myter og metaforer. Denne måten å forstå tilværelsen på kan belyse og mørklegge. Metaforer kan også fungere på måter som sannsynligvis ikke var intensjonen når metaforen først ble lansert.</p>



<p>Klisjeen om at data er den nye oljen, er en slik metafor. I utgangspunktet skulle sammenligningen peke mot de enorme verdiene som ligger i storskalainnsamling og analyse av personopplysninger. Metaforen fungerer (muligens utilsiktet) også i kraft av at selskapene som dominerer de digitale markedene, utøver monopolmakt, på samme måte som oljeselskapene gjorde for et århundre siden.</p>



<p>I dag vet vi at den fossile energien som har revolusjonert vår verden, også potensielt kan ødelegge den. Og selv om livsstilsendringer på individnivå kan hjelpe, er det bred enighet om at klimakrisen må løses politisk.</p>



<p>Parallellene er flere. Vi kan observere at de mest personvernfiendtlige aktørene markedsfører sine tjenester som de mest personvernvennlige, med dyre reklamekampanjer og sponsing av konferanser og utredninger. Personvernvasking kan legges til begrepslisten ved siden av grønnvasking og rosavasking.</p>



<p>Datasølet, liksom oljesølet, treffer også ulikt. Vi har sett stygge eksempler på at folk med mørk hudfarge blir feilpredikert av ansiktsgjenkjenningsteknologi eller at algoritmer diskriminerer på kjønn i rekrutteringsprosesser. Cambridge Analytica ble på samme måte et skandalisert selskap da de ekstremt inngripende valgmanipulasjonsmetodene deres ble avslørt i USA og Storbritannia. Lite ble skrevet om de trettitalls valgene de manipulerte i land på den sørlige halvkule. Vi ser også en tendens til at invaderende overvåkning av arbeidstagere er mest utbredt i lavtlønnede yrker.</p>



<h2 class="wp-block-heading">I vår felles bakgård</h2>



<p>Hvis data er den nye oljen, må vi snakke mer om forurensingen, utslippene og de kollektive skadevirkningene stordataalderen har medført. Bevisste forbrukervalg, nettvett og kunnskap om informasjonssikkerhet er viktig, men langt fra nok i dataforurensingens tidsalder. Vi må løfte samtalen og politikkutformingen mot en forståelse av personvern som et kollektivt gode, i tillegg til en fundamental rettighet på individnivå.</p>



<p>Hvordan kan vi konkret jobbe for at de kollektive konsekvensene av overvåkning og sporing blir en like naturlig del av samtalen som de kollektive konsekvensene av global oppvarming? En god start vil være at Personvernkommisjonen sørger for å koble det individuelle og forbrukerorienterte med det kollektive og samfunnsmessige.</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2021/09/27/data-er-det-nye-oljesolet/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Må vi egentlig være på sosiale medier?</title>
    <link>https://www.personvernbloggen.no/2021/09/23/ma-vi-egentlig-vaere-pa-sosiale-medier/</link>
    <comments>https://www.personvernbloggen.no/2021/09/23/ma-vi-egentlig-vaere-pa-sosiale-medier/#respond</comments>
    <avatar>https://secure.gravatar.com/avatar/a2a56086fd95de12e0ef90129fed8417263198ea80e90a03f2fa871cc6f40f0f?s=200&#038;d=mm&#038;r=g</avatar>
    <pubDate>Thu, 23 Sep 2021 14:07:21 +0000</pubDate>
    <dc:creator><![CDATA[Anders]]></dc:creator>
    		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[Forbrukerrettigheter]]></category>
		<category><![CDATA[Ikke kategorisert]]></category>
		<category><![CDATA[Offentlig forvaltning]]></category>
		<category><![CDATA[Personvernforordningen (GDPR)]]></category>
		<category><![CDATA[Sosiale medier]]></category>
		<category><![CDATA[Facebook]]></category>
		<category><![CDATA[personvern]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3497</guid>
    <description><![CDATA[Det er blitt skapt et avhengighetsforhold mellom norske virksomheter og teknologiselselskapene som det blir vanskelig å fri seg fra. Vi må passe på at ikke offentlig sektor blir like avhengig av den samme retorikken &#8211; at de &#171;må være på sosiale medier ettersom befolkningen er der&#187;. Denne teksten ble først publisert på kommunikasjonsforeningens nettsider 23.09.2021. [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p><strong>Det er blitt skapt et avhengighetsforhold mellom norske virksomheter og teknologiselselskapene som det blir vanskelig å fri seg fra. Vi må passe på at ikke offentlig sektor blir like avhengig av den samme retorikken &#8211; at de &laquo;må være på sosiale medier ettersom befolkningen er der&raquo;.</strong></p>



<p><em>Denne teksten ble først publisert på kommunikasjonsforeningens nettsider 23.09.2021.</em></p>



<p>Jeg kaster her ut et kjøttfullt ben som jeg håper kan bidra til å øke bevisstheten og skape debatt om det offentliges bruk av sosiale medier.</p>



<p>Bindinger til big tech er regelen snarere enn unntaket. Ved å bruke gratis tilgjengelige verktøy fra de store teknologiselskapene, inviterer offentlige virksomheter kommersielle aktører til å samle inn og bruke data om norske innbyggere. Samtidig skapes det et avhengighetsforhold som det kan bli vanskelig å fri seg fra, ettersom det finnes få alternative tjenestetilbydere.</p>



<p>Vi må passe på at det samme ikke skjer med retorikken: at offentlig sektor blir for avhengig av argumenter som forsvarer deres tilstedeværelse på Facebook, Twitter, LinkedIn og co, samtidig som de unnlater å reflektere over egen tilstedeværelse i kanalene og tenke alternativt. Hardt arbeid og tøffe beslutninger ligger forut. Det er først når man forsøker å fri seg fra lenker, man kjenner hvor krevende det kan være.</p>



<h2 class="wp-block-heading"><strong>Tyskland går foran</strong></h2>



<p>Det offentlige myndigheter gjør, har en signaleffekt. Datatilsynet befinner seg i en merkelig situasjon. Som en moderne virksomhet digitaliserer og effektiviserer vi oss i takt med samfunnet. Samtidig skal vi være garantist og fremste beskytter av personvernet i Norge. Dermed står Datatilsynet i en snodig skvis i spørsmålet om vi bør bruke sosiale medier i vårt eget kommunikasjonsarbeid. Et par tilfeller fra våre kolleger i Tyskland er interessante.</p>



<p>I januar 2020 valgte en av de tyske datatilsynsmyndighetene&nbsp;<a href="https://www.baden-wuerttemberg.datenschutz.de/bye-bye-twitter/" target="_blank" rel="noreferrer noopener">å slette sin konto på Twitter</a>. To EU-dommer, og personvernregelverkets krav til å avklare såkalt&nbsp;<em>felles behandlingsansvar</em>, var blant årsakene. Tilsynet konkluderte med at de ikke lenger var på trygg, juridisk grunn. Samtidig kom de med noen minstekrav overfor andre offentlige myndigheter som benytter sosiale medier i delstaten. I dag sverger vårt tyske søstertilsyn selv til den desentraliserte&nbsp;<a href="https://xn--baw-joa.social/@lfdi" target="_blank" rel="noreferrer noopener">mikrobloggingstjenesten Mastadon</a>&nbsp;når de kommuniserer med sine innbyggere.</p>



<p>Regelverket (GDPR) og rettspraksisen som avgjørelsen hviler på, vil være både direkte og indirekte bindende for Norge. EU-dommene&nbsp;<a href="https://curia.europa.eu/jcms/upload/docs/application/pdf/2018-06/cp180081en.pdf" target="_blank" rel="noreferrer noopener">Wirtschaftsakademie</a>&nbsp;og&nbsp;<a href="https://curia.europa.eu/jcms/upload/docs/application/pdf/2019-07/cp190099en.pdf" target="_blank" rel="noreferrer noopener">Fashion ID</a>&nbsp;fastslår at den som oppretter en Facebook-side, vil være felles ansvarlig med Facebook for behandlinger av personopplysninger på siden.</p>



<p>Da dommene falt, var vi i Datatilsynet selv allerede i dypt inne i vurderinger om egen bruk av sosiale medier.</p>



<h2 class="wp-block-heading"><strong>Må ha orden i eget hus</strong></h2>



<p>Bruk av sosiale medier reiser flere viktige tekniske, juridiske og etiske spørsmål. Et knapt år etter at GDPR trådte i kraft, satte vi selv i gang med et ambisiøst prosjekt som bidrar til å belyse disse spørsmålene. Mandatet fra ledelsen var ikke å vurdere om vi skal gå <em>ut</em> av Twitter. Vi skulle vurdere å gå <em>inn</em> på Facebook.</p>



<p>Med innføringen av personvernforordningen, eller GDPR, i 2018, har vi fått et strengt og teknologinøytralt regelverk som plasserer plikter og ansvar på alle som behandler personopplysninger. Regelverket stiller krav til&nbsp;alle som behandler personopplysninger, og til formidlingen av rettigheter og informasjon om behandlingen. Forordningen handler i bunn og grunn om å ha orden i eget hus.</p>



<p>Et viktig verktøy for å sikre at personvernet til brukerne som er registrert i en løsning ivaretas, er å gjennomføre risikovurderinger og vurdering av personvernkonsekvenser. Det er dette verktøyet Datatilsynet nå har brukt i vurderingen av Facebook, og som har&nbsp;<a href="https://www.datatilsynet.no/aktuelt/aktuelle-nyheter-2021/datatilsynet-velger-a-ikke-bruke-facebook/" target="_blank" rel="noreferrer noopener">munnet ut i en ny rapport.</a></p>



<h2 class="wp-block-heading"><strong>Legitimerer overvåkingsøkonomien</strong></h2>



<p>Vår vurdering er på mange måter et bidrag til en analyse av overvåkingsøkonomien. Kommunikasjon i sosiale medier vil av natur alltid inneholde personopplysninger. De store teknologigigantene går ut av sin vei for å gjøre det enklest mulig å kommunisere på plattformene deres. Tilsynelatende triviell kommunikasjon medfører ofte en omfattende behandling av personopplysninger. Jeg mener at et av de mest innsiktsfulle perspektivene å forstå disse plattformene på, er fra et personvernperspektiv.</p>



<p>Det er lettere å ta stilling til teknologi når vi forstår den bedre. Hva slags opplysninger samles inn fra Facebook-siden? Hvor lenge vil opplysningene lagres i Facebook-systemet? Hva er behandlingens geografiske omfang? I en teknisk kartlegging gjorde vi rede for behandlingens art, omfang, formål, sammenheng, kilder og mottakere, samt løsningens informasjonssikkerhet.</p>



<p>Kartleggingen «tvinger» en til å beskrive og ta stilling til en rekke forhold ved en databehandling som påvirker den enkeltes personvern, rettigheter og friheter. Ved å kommunisere gjennom en side på plattformen, bidrar vi til å opprettholde og legitimere denne økonomien.</p>



<h2 class="wp-block-heading"><strong>Nye regler skulle skape endring</strong></h2>



<p>De store teknologiplattformene har lenge vært et vanskelig juridisk terreng. De setter standarden selv: «Godta vilkårene våre i sin helhet, eller la være å bruke tjenesten». De fleste tar ikke stilling til nye personvernerklæringer når det kommer oppdateringer, og har kanskje heller ikke sett på den gamle. Facebook kan&nbsp;<a href="https://www.facebook.com/legal/terms/update" target="_blank" rel="noreferrer noopener">når som helst endre sine vilkår.</a></p>



<p>GDPR ble innført for å endre. Hvor lenge kan vi akseptere denne rollefordelingen?</p>



<p>La oss se på enda et tilfelle fra Tyskland. Før sommeren gikk det føderale datatilsynet (BFDI) ut og gav offentlige myndigheter beskjed om å&nbsp;<a href="https://www.digi.no/artikler/tyske-myndigheter-ma-trolig-slette-facebook-sidene-sine-innen-nyttar/511719" target="_blank" rel="noreferrer noopener">slette Facebook-sidene sine innen nyttår.</a>&nbsp;Dette blant annet som følge av&nbsp;<a href="https://curia.europa.eu/jcms/upload/docs/application/pdf/2020-07/cp200091en.pdf" target="_blank" rel="noreferrer noopener">Schrems II-dommen</a>&nbsp;spesielt og mangel på etterlevelse av EUs personvernlovgivning generelt. Offentlige myndigheter skal gå foran som et godt eksempel, sier de.</p>



<h2 class="wp-block-heading"><strong>Et spørsmål om verdier</strong></h2>



<p>Bruk av sosiale medier gjør at ulike verdier kommer i konflikt med hverandre. Personvern må ofte balanseres mot interesser av vidt ulik karakter. Datatilsynet har, som resten av offentlig sektor, et viktig informasjons- og kommunikasjonsbehov. Samtidig har vi plikt til å informere om et stort og komplisert regelverk. Vi er ombud for én av de viktigste verdiene i et informasjonssamfunn.</p>



<p>Den enkelte står fritt til å bruke sosiale medier og ta stilling til personvern etter eget skjønn. Som offentlig aktør og rollemodell for personvernet, må vi i Datatilsynet ta mer allmenne hensyn og oppfylle våre plikter. Som tilsynsmyndighet følges vi med argusøyne når det gjelder loven vi selv håndhever. I vårt interne hierarki av verdier, er det selvsagt at personvernet troner øverst. Det går på bekostning av for eksempel Google Analytics, Youtube – og nå Facebook.&nbsp; &nbsp;</p>



<p>Vårt tyske søstertilsyn hoppet over til plattformen Mastadon. Kanskje en emigrering til alternative kommunikasjonsverktøy er den eneste måten vi kan tilbakevise argumentet om at myndighetene må være der folket er? Jeg skulle ønske jeg kunne vise til et mer attraktivt alternativ.</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2021/09/23/ma-vi-egentlig-vaere-pa-sosiale-medier/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Godt personvern eller kunstig intelligens som kjenner deg godt?</title>
    <link>https://www.personvernbloggen.no/2021/03/03/godt-personvern-eller-kunstig-intelligens-som-kjenner-deg-godt/</link>
    <comments>https://www.personvernbloggen.no/2021/03/03/godt-personvern-eller-kunstig-intelligens-som-kjenner-deg-godt/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2018/10/Kari-Laumann_avatar_1539256187-200x200.jpg</avatar>
    <pubDate>Wed, 03 Mar 2021 08:21:23 +0000</pubDate>
    <dc:creator><![CDATA[Kari Laumann]]></dc:creator>
    		<category><![CDATA[Informasjonssikkerhet]]></category>
		<category><![CDATA[Innebygd personvern]]></category>
		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[Offentlig forvaltning]]></category>
		<category><![CDATA[Personvernforordningen (GDPR)]]></category>
		<category><![CDATA[Teknologi]]></category>
		<category><![CDATA[anonymisering]]></category>
		<category><![CDATA[ansvarlig KI]]></category>
		<category><![CDATA[ansvarlig kunstig intelligens]]></category>
		<category><![CDATA[avidentifisering]]></category>
		<category><![CDATA[behandlingsgrunnlag]]></category>
		<category><![CDATA[dataminimering]]></category>
		<category><![CDATA[datatilsynet]]></category>
		<category><![CDATA[etisk KI]]></category>
		<category><![CDATA[etisk kunstig intelligens]]></category>
		<category><![CDATA[innovasjon]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Norge]]></category>
		<category><![CDATA[personvern]]></category>
		<category><![CDATA[regulatorisk sandkasse]]></category>
		<category><![CDATA[rettferdighet]]></category>
		<category><![CDATA[sandkassa]]></category>
		<category><![CDATA[Sandkasse for ansvarlig kunstig intelligens]]></category>
		<category><![CDATA[søknader]]></category>
		<category><![CDATA[transparens]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3364</guid>
    <description><![CDATA[Det kan virke som en umulig oppgave. Men da Datatilsynets nyopprettede regulatoriske sandkasse stilte spørsmålet, var det gledelig mange i det norske KI-miljøet som svarte som Ole Brumm. Ja takk, begge deler! Vi fikk inn 25 søknader til den regulatoriske sandkassen for kunstig intelligens (KI) og personvern. Spennet i søknadene viser det enorme potensialet KI [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p>Det kan virke som en umulig oppgave. Men da Datatilsynets nyopprettede regulatoriske sandkasse stilte spørsmålet, var det gledelig mange i det norske KI-miljøet som svarte som Ole Brumm. Ja takk, begge deler! </p>



<p>Vi fikk inn 25 søknader til den regulatoriske sandkassen for kunstig intelligens (KI) og personvern. Spennet i søknadene viser det enorme potensialet KI har for å forbedre og effektivisere samfunnet vårt. Samtidig ser vi helt klart et behov for avklaring av hvordan deler av personvernregelverket skal tolkes i praksis.</p>



<h2 class="wp-block-heading">Topp 5</h2>



<p>Lista over tematikk, som søkerne i første runde med Datatilsynets sandkasse ønsker hjelp med, toppes av disse fem:</p>



<ol class="wp-block-list"><li>Transparens</li><li>Dataminimering</li><li>Rettferdighet</li><li>Anonymisering/avidentifisering</li><li>Behandlingsgrunnlag</li></ol>



<p>Tilbakemeldingene vi har fått fra søkerne er at regelverket er der, men hvordan skal vi gjøre det i praksis? Hvor detaljert må forklaringen være? Hvordan kan vi bruke så lite data som mulig (dataminimering), men samtidig få nøyaktige resultater? Hvordan kan vi designe et system som er rettferdig for brukeren og ikke diskriminerer?</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="972" height="641" src="https://www.personvernbloggen.no/wp-content/uploads/2021/03/tematikk-topp-5-forste-runde.jpg" alt="" class="wp-image-3365" srcset="https://www.personvernbloggen.no/wp-content/uploads/2021/03/tematikk-topp-5-forste-runde.jpg 972w, https://www.personvernbloggen.no/wp-content/uploads/2021/03/tematikk-topp-5-forste-runde-480x317.jpg 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) 972px, 100vw" /></figure>



<p>Vi er i gang med å velge ut fire prosjekter av de 25 søknadene som vi skal jobbe tett med for å utforske gode personvernløsninger i de ulike løsningene. Målet med sandkassen er å jobbe frem gode personvernløsninger for å vise frem at KI og personvern kan gå hånd i hånd, og gi eksempler på vurderinger og personverntiltak i konkrete prosjekter. Vi håper det kan være til hjelp og inspirasjon for andre virksomheter som benytter personopplysninger og KI.</p>



<h2 class="wp-block-heading">KI overalt</h2>



<p>Kunstig intelligens kan gjøre utdanningen mer tilpasset og presis, den kan hjelpe med å effektivisere helsehjelp og fange opp sykdom på et tidlig tidspunkt, den kan spare samfunnet for store verdier ved å avdekke hvitvasking på en måte mennesker ikke kan. Søknadene representerer mange ulike sektorer, og vi har alt fra små oppstartsselskaper til store offentlige aktører på <a href="https://www.datatilsynet.no/aktuelt/aktuelle-nyheter-2021/25-sokarar-til-sandkassa/" target="_blank" rel="noreferrer noopener">listen</a>.</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="907" height="544" src="https://www.personvernbloggen.no/wp-content/uploads/2021/03/Tematikk-forste-runde.jpg" alt="" class="wp-image-3366" srcset="https://www.personvernbloggen.no/wp-content/uploads/2021/03/Tematikk-forste-runde.jpg 907w, https://www.personvernbloggen.no/wp-content/uploads/2021/03/Tematikk-forste-runde-480x288.jpg 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) 907px, 100vw" /></figure>



<p>11 av søkerne kommer fra offentlig sektor, og 14 fra privat sektor.</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="849" height="553" src="https://www.personvernbloggen.no/wp-content/uploads/2021/03/sektorfordeling-forste-runde.jpg" alt="" class="wp-image-3367" srcset="https://www.personvernbloggen.no/wp-content/uploads/2021/03/sektorfordeling-forste-runde.jpg 849w, https://www.personvernbloggen.no/wp-content/uploads/2021/03/sektorfordeling-forste-runde-480x313.jpg 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) 849px, 100vw" /></figure>



<p>Nå gleder vi oss til å komme i gang med de første sandkasseprosjektene. Følg gjerne med på <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/" target="_blank" rel="noreferrer noopener">våre nettsider</a> om nytt fra sandkassen – vi staser på å dele oppdateringer underveis i prosjektene. Første runde vil vare i 3-6 måneder, og vi kjører nytt opptak når vi har kapasitet til høsten.&nbsp;</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2021/03/03/godt-personvern-eller-kunstig-intelligens-som-kjenner-deg-godt/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
  </channel>
</rss>