<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
  xmlns:content="http://purl.org/rss/1.0/modules/content/"
  xmlns:wfw="http://wellformedweb.org/CommentAPI/"
  xmlns:dc="http://purl.org/dc/elements/1.1/"
  xmlns:atom="http://www.w3.org/2005/Atom"
  xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
  xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
  >
<channel>
  <title>PersonvernbloggenInnebygd personvern Archives - Personvernbloggen</title>
  <atom:link href="https://www.personvernbloggen.no/category/innebygd-personvern/feed/" rel="self" type="application/rss+xml" />
  <link>https://www.personvernbloggen.no/category/innebygd-personvern/</link>
  <description>Datatilsynets blogg om personvernspørsmål</description>
  <lastBuildDate>Wed, 28 Jan 2026 19:31:14 +0000</lastBuildDate>
  <language>nb-NO</language>
    <sy:updatePeriod>hourly</sy:updatePeriod>
    <sy:updateFrequency>1</sy:updateFrequency>
  <generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.personvernbloggen.no/wp-content/uploads/2018/03/cropped-DT-Favicon-32x32.jpg</url>
	<title>Innebygd personvern Archives - Personvernbloggen</title>
	<link>https://www.personvernbloggen.no/category/innebygd-personvern/</link>
	<width>32</width>
	<height>32</height>
</image> 
  <item>
    <title>Seks sentrale spørsmål om kunstig intelligens (Og svarene fra sandkassen)</title>
    <link>https://www.personvernbloggen.no/2025/04/01/seks-sentrale-sporsmal-om-kunstig-intelligens-og-svarene-fra-sandkassen/</link>
    <comments>https://www.personvernbloggen.no/2025/04/01/seks-sentrale-sporsmal-om-kunstig-intelligens-og-svarene-fra-sandkassen/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2020/08/Profilbilde_Magnus-scaled-e1597911334538-200x200.jpg</avatar>
    <pubDate>Tue, 01 Apr 2025 07:08:40 +0000</pubDate>
    <dc:creator><![CDATA[Magnus Mühlbradt]]></dc:creator>
    		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[Ikke kategorisert]]></category>
		<category><![CDATA[Innebygd personvern]]></category>
		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[Teknologi]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[digitalisering]]></category>
		<category><![CDATA[innovasjon]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[personvern]]></category>
		<category><![CDATA[regulatorisk sandkasse]]></category>
		<category><![CDATA[sandkasse]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=4020</guid>
    <description><![CDATA[Siden oppstarten i 2021 har Datatilsynets regulatoriske sandkasse hjulpet enkeltaktører med å følge regelverket og utvikle KI-løsninger med godt personvern. Fremover vil vi ha et bredere fokus på innovasjon og digitalisering – både med og uten kunstig intelligens. Men la oss først se nærmere på seks KI-relaterte spørsmål vi ofte har møtt fra søkere og [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p>Siden oppstarten i 2021 har Datatilsynets regulatoriske sandkasse hjulpet enkeltaktører med å følge regelverket og utvikle KI-løsninger med godt personvern. Fremover vil vi ha et bredere fokus på innovasjon og digitalisering – både med og uten kunstig intelligens. Men la oss først se nærmere på seks KI-relaterte spørsmål vi ofte har møtt fra søkere og deltakere i sandkassen.</p>



<h2 class="wp-block-heading">1. <strong>Kan vi bruke personopplysninger i KI-løsningen?</strong></h2>



<p>Et spørsmål som går igjen i Datatilsynets sandkasse er: Har vi lov til å bruke personopplysninger i løsningen vår? </p>



<p>Svaret er som regel: Det kommer an på.</p>



<p>For at behandlingen av personopplysninger skal være lovlig, må virksomheten ha et rettslig grunnlag, også ved utvikling av kunstig intelligens. Dette er i tråd med <a href="https://lovdata.no/dokument/NL/lov/2018-06-15-38/KAPITTEL_gdpr-2#gdpr/a6">personvernforordningen artikkel seks</a>.</p>



<p>Kunstig intelligens omfatter ofte flere faser: utvikling, anvendelse (bruken av selve løsningen) og etterlæring. Disse fasene kan overlappe, noe som gjør det krevende å avgjøre når én fase slutter og en annen begynner. Og selv om virksomheten har rettslig grunnlag for én fase, betyr det ikke nødvendigvis at dette grunnlaget dekker andre faser.</p>



<p>Vi møtte på denne problemstillingen sammen med NAV – i et av de første sandkasseprosjektene våre. Her kom vi frem til, at NAV hadde hjemmel i folketrygdloven til å behandle brukernes opplysninger for å yte tjenester. Loven er derimot ikke tydelig  på om de kan bruke historiske data om sykemeldinger <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/nav-sluttrapport/rettslig-grunnlag/">til trening av algoritmene</a>.</p>



<p>En annen viktig læring, er at det er viktig å identifisere hvilke data som faktisk inneholder personopplysninger. I sandkasseprosjektet med Juridisk ABC kom vi frem til at de kunne nytte lovtekster, forskrifter, forarbeider og lignende juridiske kilder i <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/juridisk-abc-sluttrapport-jussboten-lawai/">den generative KI-løsningen for arbeidsrett</a>. Det var ikke krav om rettslig grunnlag ganske enkelt fordi kildene ikke inneholdt personopplysninger. Derimot inneholdt dommer og kjennelser ofte omfattende mengder personopplysninger – som kan være svært sensitive for de som er involvert. Derfor måtte Juridisk ABC ha et rettslig grunnlag for å inkludere disse i KI-løsningen.</p>



<h2 class="wp-block-heading">2. <strong>Er anonymisering løsningen?</strong></h2>



<p>Flere av virksomhetene i sandkassen har ønsket å anonymisere personopplysninger. Anonymiserte data er jo ikke omfattet av personvernregelverket, så det <em>kan</em> forenkle mye. Men – det har i praksis vist seg krevende å få til faktisk anonymisering.</p>



<p>Til tross for betydelige fremskritt innen anonymiseringsteknologi, som skal hindre identifisering av enkeltpersoner i datasett, har det parallelt vært en utvikling av analyseteknologi som øker risikoen for re-identifisering. Mer offentliggjøring av offentlige data har også gjort det mulig å sammenstille flere datapunkter fra ulike kilder, hvilket øker utfordringen.</p>



<p>I sandkassen har vi sett flere eksempler på bruk av ny teknologi for å redusere risikoen for re-identifisering. Finansvirksomheten <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/finterai-sluttrapport/">Finterai ville bruke føderert læring</a> for å kunne dele innsikt fra transaksjonshistorikk mellom banker – uten å eksponere opplysninger som kunne knyttes til enkeltpersoner.</p>



<p>Teknologiselskapet <a href="https://www.datatilsynet.no/en/regulations-and-tools/sandbox-for-artificial-intelligence/reports/salt-mobai-et-al.-exit-report-securing-digital-identities/">Mobai hadde en lignende tilnærming</a>, men benyttet homomorfisk kryptering for å gjøre re-identifisering vanskeligere. Ved hjelp av denne teknologien kunne aktører analysere krypterte personopplysninger uten at de måtte dekrypteres. Dette skjer ved at de bevarer de egenskapene ved personopplysningene som de ønsker å bruke, og fjerner resten. </p>



<p><a href="https://www.datatilsynet.no/personvern-pa-ulike-omrader/internett-og-apper/personvernfremmende-teknologi/">Personvernfremmende teknologier</a>, som føderert læring og homomorfisk kryptering, markerer viktige skritt i riktig retning for å få til godt personvern i praksis. De bidrar ikke bare til å redusere risikoen for re-identifisering av personer som er i et KI-datasett. De gir også virksomheter bedre muligheter til å balansere innovasjon med personvern og informasjonssikkerhet.</p>



<h2 class="wp-block-heading">3. <strong>Kan kunstig intelligens bidra til dataminimering?</strong></h2>



<p>Prinsippet om dataminimering kan ved første øyekast virke som en motpol til kunstig intelligens. Kunstig intelligens trenger store mengder personopplysninger for å lære. Prinsippet om dataminimering slår fast at du skal samle inn minst mulig personopplysninger – kun det som er nødvendig for å oppnå formålet.</p>



<p>I flere sandkasseprosjekter har vi utforsket dette tilsynelatende dilemmaet. For eksempel har vi i sammen med <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/doorkeeper-sluttrapport-intelligent-kameraovervaking-med-personvern-i-fokus/">sikkerhetsselskapet Doorkeeper</a> sett på hvordan KI-baserte overvåkingskameraer kan minimere innsamlingen av personopplysninger. Blant annet kan de sladde mennesker i videostrømmen eller aktivere løpende opptak kun når en spesifikk hendelse utløser det. Vi har også diskutert situasjoner man <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/finterai-sluttrapport/dataminimering/">ikke vet hvilke opplysninger som er nødvendige før de har analysert data over tid.</a> Er det brudd på dataminimeringsprinsippet, om det i ettertid viser seg at personopplysninger har blitt behandlet uten å være relevante? Vi har utforsket problemstillingen i sandkassen, men som i mange andre tilfeller vil svaret avhenge av den konkrete konteksten.</p>



<h2 class="wp-block-heading">4. <strong>Hvordan skaper algoritmer urettferdighet?</strong></h2>



<p>Helsesektoren har vært godt representert i sandkassen, blant annet gjennom prosjekter med <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/helse-bergen-sluttrapport-kunstig-intelligens-i-oppfolging-av-sarbare-pasienter/hvordan-sikre-at-algoritmen-gir-et-rettferdig-resultat/">Helse Bergen</a> og <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/ahus-sluttrapport-ekg-ai/tiltak-som-kan-redusere-algoritmeskjevhet/">Ahus</a>. Disse har fokusert på KI-løsninger som skulle forutsi hjertesvikt og peke ut pasienter med fare for rask reinnleggelse på sykehus.</p>



<p>Kunstig intelligens i helsesektoren reiser viktige spørsmål om algoritmeskjevheter, som kan føre til at pasientene blir diskriminert. I begge prosjektene var KI-verktøyene ment som beslutningsstøtte og ikke for å gjennomføre automatiserte avgjørelser uten menneskelig innblanding. Likevel, det er en utbredt forståelse for at kunstig intelligens kan videreføre og forsterke eksisterende diskriminering i samfunnet. I tilfeller hvor algoritmene kommer til feil vurdering av folks helse, kan dette ha alvorlige konsekvenser.</p>



<p>I Ahus-prosjektet så de at dårlig datakvalitet og feil i datagrunnlaget potensielt kunne resultere i uriktige og diskriminerende resultater. Og de så på forskjellige metoder for å avverge dette.</p>



<p>For virksomheter som vil avverge algoritmeskapt diskriminering, har Likestillings- og diskrimineringsombudet <a href="https://ldo.no/aktuelt/innebygd-diskrimineringsvern/">en nyttig veileder om innebygd diskrimineringsvern</a>. Den er rettet mot de som er ansvarlige for utvikling, anskaffelse og bruk av ML-systemer, og skal gjøre dem kjent med diskrimineringsregelverket, slik at de kan forebygge ved å vurdere diskrimineringsrisikoen teknologien medfører.</p>



<h2 class="wp-block-heading">5. <strong>Hvem har ansvaret: utvikler eller kunde?</strong></h2>



<p>I flere sandkasseprosjekter har vi diskutert ansvarsforhold knyttet til behandlingen av personopplysninger i KI-løsninger: Hvem er behandlingsansvarlig? Hvem er databehandler? Og bør utviklere ta et større ansvar for å hjelpe virksomheter med å etterleve personvernregelverket?</p>



<p>En leverandør har ikke nødvendigvis et direkte ansvar for at kjøperne av produktet følger personvernregelverket, når løsningen blir brukt til å samle inn og behandle personopplysninger. Likevel bør de levere løsninger som legger til rette for at kunden, som ofte er å regne som behandlingsansvarlig, kan overholde regelverket i praksis.</p>



<p>I noen tilfeller kan det også være hensiktsmessig at utviklere eller leverandører tar på seg mer ansvar, for å sikre viktige personvernhensyn. Dette kan for eksempel være knyttet til tilgangskontroll eller informasjonssikkerhet.</p>



<p>Et eksempel på at utvikleren tar mer ansvar for å forbedre personvernet, ser vi i <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/secure-practice---sluttrapport/">prosjektet med Secure Practice</a>. Denne teknologivirksomheten hadde som mål å gi persontilpasset opplæring i cybersikkerhet. Sikkerhetsopplæringen var ment for ansatte i virksomheter, som ville kjøpe tjenesten fra Secure Practice. I tillegg ville ledelsen i disse virksomhetene få statistikk over ansattes kunnskaps- og interessenivå innenfor informasjonssikkerhet. For å kunne levere tjenesten uten at informasjon om ansatte kan misbrukes av ledelsen, drøftet deltakerne i prosjektet at det kunne være nødvendig å holde tilbake personopplysninger fra kunden. For at dette skulle være mulig, vurderte de en løsning med felles behandlingsansvar. Secure Practice og kunden vil da i fellesskap fastsette formålene og midlene for behandlingen av arbeidstakers personopplysninger.</p>



<p>Dette viser hvor viktig det er å avklare og plassere ansvarsforhold for å utvikle løsninger med godt personvern. Klare ansvarsforhold bidrar ikke bare til bedre etterlevelse av regelverket. Det kan også bidra til økt tillit mellom leverandører og kunder.</p>



<h2 class="wp-block-heading">6. <strong>Hvorfor maser vi så fælt om at personvernet må tidlig på plass?</strong></h2>



<p>Har du hørt om innebygd personvern? Det er et prinsipp i personvernregelverket om at tekniske systemer og løsninger blir utviklet slik at personvernet blir ivaretatt. Poenget er å sikre at personvernet i systemet er gjennomtenkt, heller enn å forsøksvis bli klattet på til slutt. I den nye digitaliseringsstrategien slår regjeringen fast at alle relevante IT-løsninger i offentlig sektor skal ha innebygd personvern. Men hva betyr det i praksis?</p>



<p>Mange av virksomhetene har kommet til sandkassen med KI-prosjekter i konseptfasen. Erfaringen fra disse prosjektene er at tidlige veivalg har stor betydning for hvor lett eller vanskelig det blir å etterleve kravene i personvernregelverket.&nbsp;</p>



<p>Flere eksempler fra sandkassen illustrer dette, spesielt når det gjelder lagring av personopplysninger for KI-formål. For eksempel kan lagring av store mengder personopplysninger sentralt på en felles server, gjøre dataene sårbare og øke angrepsflatene. Da må strenge organisatoriske og tekniske tiltak til for å sikre opplysningene, ettersom lagringen innebærer en større risiko for de registrerte. På en annen side kan desentralisert lagring – for eksempel ved kantprosessering (edge computing) – i visse tilfeller redusere personvernrisikoen. Det forenkler virksomhetens arbeid med informasjonssikkerhet.</p>



<p>Ett eksempel på desentralisert lagring er <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/doorkeeper-sluttrapport-intelligent-kameraovervaking-med-personvern-i-fokus/">Doorkeepers løsning</a>, der videostrømmen fra et overvåkingskamera ble sladdet direkte i kamerahuset før opptakene ble sendt videre til et brukergrensnitt. Et annet eksempel var <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/ruter-sluttrapport-i-rute-med-kunstig-intelligens/hvilket-ansvar-har-ruter-ved-lokal-lagring-i-forberedelsesfasen/">et prosjekt med Ruter</a>, som ønsket lokal lagring på brukernes egne mobiltelefoner i forberedelsesfasen til å utvikle KI. </p>



<p>Hvor data skal lagres, er neppe det første du tenker på etter å ha fått en ide om en genial ide. Å tenke på det tidlig nok kan riktignok spare deg for mye frustrasjon, og brukerne for risiko. </p>



<p>Dette er særlig relevant for virksomheter med begrensede ressurser – å utvikle løsninger som fra starten ikke krever omfattende tiltak for å oppfylle personvernregelverket. Å tilpasse ferdigutviklede løsninger i etterkant kan være både tidkrevende og kostbart.</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2025/04/01/seks-sentrale-sporsmal-om-kunstig-intelligens-og-svarene-fra-sandkassen/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Kameraovervåking med personvern i fokus?</title>
    <link>https://www.personvernbloggen.no/2023/09/25/kameraovervaking-med-personvern-i-fokus/</link>
    <comments>https://www.personvernbloggen.no/2023/09/25/kameraovervaking-med-personvern-i-fokus/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2020/08/Profilbilde_Magnus-scaled-e1597911334538-200x200.jpg</avatar>
    <pubDate>Mon, 25 Sep 2023 08:25:41 +0000</pubDate>
    <dc:creator><![CDATA[Magnus Mühlbradt]]></dc:creator>
    		<category><![CDATA[Dataanalyse]]></category>
		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[Innebygd personvern]]></category>
		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[Teknologi]]></category>
		<category><![CDATA[ansvarlig kunstig intelligens]]></category>
		<category><![CDATA[intelligent video analyse]]></category>
		<category><![CDATA[IVA]]></category>
		<category><![CDATA[kameraovervåking]]></category>
		<category><![CDATA[kameraovervåkning]]></category>
		<category><![CDATA[regulatorisk sandkasse]]></category>
		<category><![CDATA[Sandkasse for ansvarlig kunstig intelligens]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3858</guid>
    <description><![CDATA[«Intelligente» overvåkingskameraer blir stadig oftere tatt i bruk. Disse kameraene gjør dyptgående analyser av atferden til de som blir overvåket, og kan derfor potensielt være særdeles inngripende. Men hvordan sikrer vi personvernet ved bruk av slik teknologi? Overvåkingskameraer har gjennomgått en bemerkelsesverdig teknologisk utvikling de siste tiårene. Et av de viktigste fremskrittene er intelligent videoanalyse, [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p>«Intelligente» overvåkingskameraer blir stadig oftere tatt i bruk. Disse kameraene gjør dyptgående analyser av atferden til de som blir overvåket, og kan derfor potensielt være særdeles inngripende. Men hvordan sikrer vi personvernet ved bruk av slik teknologi?<em> </em></p>



<p>Overvåkingskameraer har gjennomgått en bemerkelsesverdig teknologisk utvikling de siste tiårene. Et av de viktigste fremskrittene er intelligent videoanalyse, der algoritmer analyserer og tolker videostrømmer, uten hjelp fra mennesker.</p>



<p>Teknologien kan utføre et mangfold av oppgaver. Alt fra enkle ting, som å detektere når en dør åpner seg, til mer inngripende former for overvåking, som involverer avansert analyse av ansikter og bevegelses- og atferdsmønstre.</p>



<p>Men er det mulig å bruke slik teknologi, som kan overvåke mennesker, og samtidig ivareta kravene i personvernregelverket? Dette var bakgrunnen for at Datatilsynet samarbeidet med sikkerhetsselskapet Doorkeeper i vår <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/">regulatoriske sandkasse</a>.</p>



<h2 class="wp-block-heading"><strong>Er det mulig med personvernvennlig overvåking?</strong></h2>



<p>I prosjektet utforsket vi mulighetene for å konfigurere intelligent videoanalyse slik at behandlingen av personopplysninger blir mindre inngripende. Doorkeepers løsning for å gjøre dette var blant annet å:</p>



<ul class="wp-block-list">
<li>Unngå kontinuerlig opptak av videostrømmen. Doorkeeper vil kun «aktivere» opptak når løsningen registrerer en forhåndsdefinert sikkerhetstrussel, for eksempel knusing av et butikkvindu. Dette vil gjøre at virksomheten ikke har løpende opptak av personer som ikke er relevante for hendelsen.</li>



<li>Ansikter og menneskeformer sladdes i sanntid fra videostrømmen. Dette betyr at personene i videostrømmen ikke vil være direkte identifiserbare med mindre en uønsket hendelse oppstår.</li>
</ul>



<p>Vi har også diskutert hvorvidt intelligent videoanalyse vil endre hvor det er lovlig å overvåke. Datatilsynets funn tyder på at dette i liten grad endres selv med kameraer som kan fjerne visse personopplysninger fra videostrømmen. For eksempel er det bare offentlige myndigheter som har lov til å overvåke offentlige steder. Dette endres ikke selv om private virksomheter tar i bruk mer «personvernvennlige» løsninger. </p>



<p>Men et interessant unntak fra dette er når kameraet konfigureres som en sensor med formål om å detektere brann- og røykutvikling. I et hypotetisk tilfelle hvor et slikt kamera skal detektere brann på en kirkevegg, vil løsningen muligens oppfylle lovkravene hvis behandlingen av personopplysninger er svært begrenset og metoden er bedre egnet til å oppnå formålet enn andre mindre inngripende løsninger, som for eksempel en vanlig brannalarm.</p>



<h2 class="wp-block-heading"><strong>Nye bruksområder for overvåkingskameraer</strong><strong></strong></h2>



<p>Til tross for at intelligente løsninger i liten grad endrer hvor det er mulig å sette opp et kamera, har mange sett nye bruksområder for teknologien. Ett eksempel på dette er bruken av «feberkameraer» under pandemien. Disse ble installert på sykehus og fotballstadioner for å analysere besøkendes temperaturer og oppdage mulige COVID-19-smittebærere.</p>



<p>I Europa har det også vært en opphetet debatt om intelligent overvåking på kollektivtransport. For eksempel da selskapet Eurostar implementerte intelligente løsninger på sine tog, for å analysere passasjerenes humør og ansiktstrekk. Formålet var å identifisere potensielle trusler mot andre passasjerer.</p>



<p>Personvernproblematikken ved disse eksemplene er todelte. I det konkrete tilfellet er det spørsmål om overvåkingen er forsvarlig, om den er for inngripende og om den oppfyller lovens krav. På et samfunnsnivå handler spørsmålet om den totale graden av kontroll og det voksende «overvåkingstrykket» som gjør at det er stadig færre steder vi kan bevege oss fritt uten å bli observert.</p>



<h2 class="wp-block-heading"><strong>Sikkerhet, overvåking og personvern</strong></h2>



<p>Sikkerhet, overvåking og personvern kan være motstridende interesser. På den ene siden kan overvåking være nødvendig for å sikre både mennesker og materielle verdier. Men man har ofte sett at dette kan gå utover integriteten til enkeltpersoner og retten til et privatliv, ved uønsket overvåking i situasjoner man vil være i fred, eller ved misbruk av opplysninger fra videostrømmen.</p>



<p>Teknologi som markedsføres som «personvernvennlig» kan også gi en falsk følelse av trygghet. Som vi har drøftet i sandkasse-prosjektet, er det avgjørende at slik teknologi kommer sammen med konkrete tiltak som begrenser muligheten for brudd på personvern. Dette inkluderer å sørge for at personvern er standardinnstillingen i konfigurasjonen, å ivareta informasjonssikkerheten i alle ledd, og hindre at uvedkommende får tilgang til å se eller manipulere videostrømmen.</p>



<h2 class="wp-block-heading"><strong>Falske positiver og bias i treningen</strong></h2>



<p>Et tilbakevendende problem med løsninger som bygger på kunstig intelligens, er falske positiver. Falske positiver&nbsp;kan føre til at behandlingen av personopplysninger blir mer omfattende enn&nbsp;det den ansvarlige virksomheten&nbsp;har lov til. I tilfellet av kameraovervåking for sikkerhetsformål kan det også ha seriøse negative konsekvenser for enkeltpersoner. For eksempel kan en person bli feilaktig beskyldt for handlinger de ikke har begått, eller at man – via <em>biaser</em> i dataene som systemet er trent på – blir profilert basert på hudfarge eller andre sensitive fysiske trekk.</p>



<p>I motsetning vil&nbsp;falske negativer&nbsp;kunne medføre at overvåkingen ikke oppfyller formålene den er ment eller trent å oppfylle. Enhver som benytter intelligent kameraovervåking må derfor følge med på eventuelle falske positiver og negativer, og kontinuerlig tilpasse løsningen slik at den fungerer etter hensikt.</p>



<h2 class="wp-block-heading"><strong>Personvern er både et lovkrav og et konkurransefortrinn</strong></h2>



<p>For virksomheter som vil ta i bruk intelligent videoanalyse, vil et godt personvern være et helt klart konkurransefortrinn i markedet. Ved å vise at man tar personvern seriøst – og at man etterlever lovkravene – bygger man tillit hos virksomhetene som skal ta i bruk teknologien – samt ansatte, kunder og andre som er eksponert for overvåkingen.</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2023/09/25/kameraovervaking-med-personvern-i-fokus/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Kunsten å invitere på teknologisk blåtur</title>
    <link>https://www.personvernbloggen.no/2023/03/06/kunsten-a-invitere-pa-teknologisk-blatur/</link>
    <comments>https://www.personvernbloggen.no/2023/03/06/kunsten-a-invitere-pa-teknologisk-blatur/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2023/02/Guro_A_farge-1-200x200.jpg</avatar>
    <pubDate>Mon, 06 Mar 2023 12:09:26 +0000</pubDate>
    <dc:creator><![CDATA[Guro Fiskvik Åsbø]]></dc:creator>
    		<category><![CDATA[Innebygd personvern]]></category>
		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[Personvernforordningen (GDPR)]]></category>
		<category><![CDATA[Teknologi]]></category>
		<category><![CDATA[Apper]]></category>
		<category><![CDATA[formål]]></category>
		<category><![CDATA[formålsbegrensning]]></category>
		<category><![CDATA[nye formål]]></category>
		<category><![CDATA[ruter]]></category>
		<category><![CDATA[Samtykke]]></category>
		<category><![CDATA[sandkassa]]></category>
		<category><![CDATA[Sandkasse for ansvarlig kunstig intelligens]]></category>
		<category><![CDATA[Tillit]]></category>
		<category><![CDATA[transport]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3741</guid>
    <description><![CDATA[Kunstig intelligens er som en ustoppelig arbeidshingst. Den kan kjapt kan se sammenhenger, som tradisjonell intelligens kanskje aldri ville oppdaget. Kunstig intelligens (KI) kan derfor gi mange nye muligheter. Akkurat til hva, kan likevel være vanskelig å spå før algoritmen er utviklet og tatt i bruk. Hva gjør du da, når regelverket krever at du [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p><strong>Kunstig intelligens er som en ustoppelig arbeidshingst. Den kan kjapt kan se sammenhenger, som tradisjonell intelligens kanskje aldri ville oppdaget. Kunstig intelligens (KI) kan derfor gi mange nye muligheter. Akkurat til hva, kan likevel være vanskelig å spå før algoritmen er utviklet og tatt i bruk. Hva gjør du da, når regelverket krever at du vet hva du vil med verktøyet før du setter i gang?</strong></p>



<p>I likhet med ekte intelligens, må kunstig intelligens lære selv, for å utføre en oppgave. Det ligger i kunstig intelligens&#8217; natur at du ikke på forhånd kan bestemme akkurat hvordan den vil lære seg noe. Noen ganger oppstår også hell i uhell, og du oppdager at du kan bruke KI-en til flere, eller andre ting, enn den var utviklet for.</p>



<h2 class="wp-block-heading">Åpenhet om formål</h2>



<p>Når kunstig intelligens skal lære av eller brukes på personopplysninger, stiller regelverket krav om at man er åpen om formålene med bruken. Personene som opplysningene gjelder – de registrerte – har krav på å vite hva opplysningene skal brukes til. Denne informasjonen skal man få før personopplysningene samles inn.</p>



<p>Åpenhet har vært hovedtema for prosjektet Ruter har deltatt med i Datatilsynets KI-sandkasse. Ruter planlegger å bruke kunstig intelligens i sin app for å tilby kundene persontilpassede reiseforslag. I sandkasseprosjektet har Datatilsynet og Ruter diskutert hvordan de kan være åpne om behandlingen av personopplysninger i denne løsningen.</p>



<p><a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/ferdige-prosjekter-og-rapporter/ruter-sluttrapport-i-rute-med-kunstig-intelligens/" target="_blank" rel="noreferrer noopener">Les sluttrapporten fra Ruterprosjektet, &laquo;I rute med kunstig intelligens&raquo;.</a></p>



<p>Det kan være vanskelig å på forhånd vite hvilken bruk av personopplysninger som trengs for å få den kunstige intelligensen til å virke som den skal. I tillegg kan den kunstige intelligensen vise seg å ha flere bruksområder når den er blitt opplært. I motsetning til Ruters bussruter, som skal være så forutsigbare som mulig, vil det være en styrke for Ruters app om den overrasker med nye måter å reise bedre på. Stenger da regelverket for å gjøre noe utover det du så for deg i utgangspunktet?</p>



<h2 class="wp-block-heading">Hvor mye skal til?</h2>



<p>Vi kan omformulere spørsmålet til hvor mye du må få vite før personopplysningene dine samles inn. Regelverket krever at formålene skal være spesifikke, uttrykkelig angitte og berettigede. Du kan altså ikke invitere på blåtur i forstand av så brede formål, at man i realiteten ikke forstår rekkevidden av hva personopplysningene kan brukes til. Når du har angitt formålene, setter de skranker for hvilken bruk som er tillatt. Oppdager du senere at det er verdifullt å bruke personopplysningene til et nytt formål? Ja, da må du gjøre nye vurderinger og finne et nytt rettslig grunnlag for bruken. Og ikke minst – la være å gå videre med det nye formålet, om du ikke finner dekning for det.</p>



<p>Et hovedhensyn er at måten personopplysningene behandles på skal være forutberegnelig. Bruken må knytte seg tett nok opp mot det formålet som var definert ved innsamling. På den måten får de registrerte en større grad av kontroll over hvordan noen bruker personopplysningene deres. Hvis man ser at bruken i realiteten knytter seg til et annet formål, skal den som hovedregel ikke skje, med mindre man starter på nytt med nye vurderinger og tiltak som kan gjøre bruken lovlig.</p>



<p>Forutsigbarhet for de registrerte er avgjørende for tillit. <a href="https://www.personvernbloggen.no/2021/10/04/ti-tonn-tillit-takk/" target="_blank" rel="noreferrer noopener">Tillit er viktig når man skal la kunstig intelligens jobbe med folks personopplysninger</a>. Så hvordan skaper du forutsigbarhet ved bruk av et verktøy som (delvis) har uforutsigbarhet som sin styrke?</p>



<h2 class="wp-block-heading">Å avgrense formål</h2>



<p>Når du først har identifisert alle bruksområder du kan se for deg, og bestemt deg for hvilke formål du vil forfølge, kommer spørsmålet om hva som hører inn under ett og samme formål opp. Selv om ulik bruk av personopplysninger i den kunstige intelligensen kan utfylle ulike oppgaver, kan bruken høre til samme formål. </p>



<p>I sandkasseprosjektet diskuterte Ruter og Datatilsynet for eksempel om behandling av personopplysninger for å gi persontilpassede reiseforslag og etterlæring av den kunstige intelligensen er to separate formål. Ruter forklarte, at det er vanskelig å få til det ene uten det andre. For at den kunstige intelligensen skal klare å gi gode, persontilpassede reiseforslag, må den stadig læres opp. For eksempel må den tilpasse seg endringer i reisemønster. </p>



<p>Man kan altså se det slik at etterlæringen er en behandlingsaktivitet som hører inn under formålet om å gi persontilpassede reiseforslag. Det samme kan sies om retting av feil eller justering av elementer den kunstige intelligensen legger vekt på før den gir et reiseforslag.</p>



<h2 class="wp-block-heading">Bruk for nye formål</h2>



<p>Ruter har planlagt å legge til rette for god informasjon om formålene de kan se for seg allerede ved innsamling. Hvis det senere oppstår behov for å oppfylle nye formål, som de ikke så for seg ved innsamling, kan de i utgangspunktet ikke gå videre med bruken. Det finnes likevel mulighet for å oppfylle det nye formålet, dersom det er forenelig med det opprinnelige formålet.</p>



<p>En type bruk, som i regelverket er angitt som forenelig uansett opprinnelig formål, er bruk for statistiske formål. Såfremt du sørger for å avidentifisere og beskytte opplysningene i så stor grad som mulig, samt å informere om ny bruk, kan bruk for statistiske formål være mulig selv om det er et nytt formål. I den grad du ser for seg en slik bruk allerede på innsamlingstidspunktet, må du likevel informere om det som et eget formål allerede da.</p>



<h2 class="wp-block-heading">Fordel å ha tunga rett i munnen fra starten av</h2>



<p>Når du skal bruke personopplysninger, må du ta noen hensyn som kan være krevende ved utvikling og bruk av kunstig intelligens. Bruksmulighetene begrenses ut fra hva slags informasjon man har gitt til de registrerte ved innsamlingen.</p>



<p>Man må planlegge godt. Det betyr å informere godt – ved innsamling – om alt du planlegger å bruke personopplysningene til. Godt forarbeid på dette området vil kunne gjøre jobben med den kunstige intelligensen lettere i et langsiktig perspektiv. Da får man en vinn-vinn-situasjon for virksomheten og for de registrerte.</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2023/03/06/kunsten-a-invitere-pa-teknologisk-blatur/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Ti tonn tillit, takk!</title>
    <link>https://www.personvernbloggen.no/2021/10/04/ti-tonn-tillit-takk/</link>
    <comments>https://www.personvernbloggen.no/2021/10/04/ti-tonn-tillit-takk/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2021/10/20210907_Datatilsynet_Kaja_133356_BW-scaled-200x200.jpg</avatar>
    <pubDate>Mon, 04 Oct 2021 08:00:00 +0000</pubDate>
    <dc:creator><![CDATA[Kaja Breivik Furuseth]]></dc:creator>
    		<category><![CDATA[Arbeidsliv]]></category>
		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[Ikke kategorisert]]></category>
		<category><![CDATA[Informasjonssikkerhet]]></category>
		<category><![CDATA[Innebygd personvern]]></category>
		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[Teknologi]]></category>
		<category><![CDATA[arbeidsliv]]></category>
		<category><![CDATA[overvåkning]]></category>
		<category><![CDATA[Sandkasse for ansvarlig kunstig intelligens]]></category>
		<category><![CDATA[Tillit]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3508</guid>
    <description><![CDATA[Kva er kiloprisen på tillit? Sei det! Uansett &#8211; i ei tid der vi snakkar om persondata som det nye gullet, blir det stadig tydelegare at tilliten din er sjølve diamanten. Cyberangrep er stadig i overskriftene, og det er berre å innsjå det – vi menneske er det svakaste leddet. Nokon av oss klikkar febrilsk [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p><strong>Kva er kiloprisen på tillit? Sei det! Uansett &#8211; i ei tid der vi snakkar om persondata som det nye gullet, blir det stadig tydelegare at tilliten din er sjølve diamanten.</strong></p>



<p>Cyberangrep er stadig i overskriftene, og det er berre å innsjå det – vi menneske er det svakaste leddet. Nokon av oss klikkar febrilsk unna alle varselboksar som poppar opp, og jobbar uforstyrra vidare. Nokon deler villig vekk persondata på ukjente sider. Andre har innsikt i farane der ute, men med oppblåst, digital sjølvtillit hoppar dei over it-sjefens kurs for alle i bedrifta. Det er som regel gammalt nytt. Våre forkunnskapar om og interesser for informasjonssikring er forskjellige. Det er utfordrande for dei som prøvar å førebyggje mot cyberangrep og phishing. Korleis kan vi lage ei opplæring som funkar?</p>



<h2 class="wp-block-heading">Å gjere informasjonssikring interessant</h2>



<p>Kva om vi kunne få til spesialtilpassa opplæring på jobb, for å sikre oss mot både sosial manipulasjon og «hacking»? Ei opplæring som treff oss med akkurat dei tiltaka vi treng, og med pedagogiske triks som gjer oss motivert til å lære? Det er muleg. Det er berre ein liten hake ved det. All denne informasjonen som trengs for å vite kva som funkar på akkurat deg – kven skal ha tilgang til den?</p>



<p>Ville du hatt tillit til at sjefen ikkje brukte slike sensitive data, som var meint for tilpassing av opplæringa, for å fordele opprykk og spennande prosjekt? Eller enda verre – som påskott for å bli kvitt upopulære medarbeidarar? Korleis kan dei som utviklar og bruker kunstig intelligens gå fram for å vinne tillit frå tilsette? Dette er nokre av spørsmåla Secure Practice har utforska ilag med Datatilsynet i <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/pagaende-prosjekter2/secure-practice/">sandkassa for kunstig intelligens</a>.</p>



<h2 class="wp-block-heading">Kunstig intelligent, ekte kjent</h2>



<p>For å få spesialtilpassa opplæring, må vi først bli kartlagt. Verktyet som Secure Practice utviklar bruker maskinlæring &#8211; ei form for kunstig intelligens &#8211; for å samle og samanstille informasjon om dei tilsette i ei verksemd.</p>



<p>I verktyet kan tilsette for det første svare på spørsmål om kunnskap og vanar innanfor &nbsp;informasjonssikring<a>.</a> For det andre kan verktyet byggje på erfaring frå testar, som til dømes simulert phishing. <a href="https://www.datatilsynet.no/rettigheter-og-plikter/virksomhetenes-plikter/informasjonssikkerhet-internkontroll/phishing---hvordan-beskytte-virksomheten/hva-er-phishing/">Phishing</a> er ei form for sosial manipulering, der cyberkriminelle for eksempel prøver å lure folk til å trykkje på ei skadeleg lenkje i ein e -post. Simulert phishing er som ei brannøving, der verksemda sender liknande e-post til dei tilsette, men i kontrollerte former. Om ein tilsett klikkar på lenkja eller ikkje, seier noko om kor medviten den enkelte tilsette er om informasjonssikring.</p>



<p>Den samanstilte informasjonen blir deretter brukt til å kalkulere ein risikokategori for kvar enkelt tilsett. Kva for risikokategori den tilsette hamnar i, avgjer kva for opplæring han eller ho får tilbod om.</p>



<h2 class="wp-block-heading">Tillit må til</h2>



<p>Stoler du ikkje på KI-verktyet, vil du kanskje føle deg overvaka. Du kan vegre deg for å for å svare ærleg på spørsmål i kartlegginga. Kanskje vil du også bruke retten du har i personvernforordninga til å protestere mot kartlegginga. Alt dette verkar inn på om det er lovleg å bruke verktyet.</p>



<p>Arbeidsgjevaren kan nemleg berre behandle personopplysningane om deg dersom opplysningane er eigna og nødvendige for å oppnå målet om betre opplæring i informasjonssikring. I tillegg må interessene til informasjonssikring vege tyngre enn dei tilsettes personvern. Protesterer du, krevst det enda meir overvekt for omsynet til informasjonssikring, halde opp mot ditt personvern.</p>



<h2 class="wp-block-heading">Korleis vinne tillit frå dei tilsette?</h2>



<p>For det første må du ha eit system som fortener tillit. Tenestetilbydarar og arbeidsgjevarar må lage gode kontraktar. Det er grunnleggjande å avtale kven som har ansvaret for at KI-systemet blir brukt på ein måte som oppfyller krava i personvernregelverket. Er det arbeidsgjevarane, tenestetilbydarane eller begge i fellesskap? I prosjektet vårt var det dessutan viktig å finne ut kven som skulle ha tilgang til personopplysningane som blir samla inn om den enkelte tilsette. Dei tilsette ville vere betre beskytta, dersom berre tenestetilbydaren skulle handtere desse opplysningane. Kanskje er det ikkje så avgjerande om du stolar på sjefen, dersom du har tillit til tenesteytaren og programvaren?</p>



<p>I tillegg til gode avtalar trengst det tekniske tiltak for å hindre at uvedkomande får tilgang til opplysningane om dei enkelte. Informasjonen om tilsettes svake punkt er gull verdt for “vondsinna” aktørar. Her er pseudonymisering, kryptering og tilgangsstyring nyttige stikkord.</p>



<h2 class="wp-block-heading">Faren for falsk tryggleik</h2>



<p>Men det hjelper veldig lite med verdas sikraste system om ikkje dei tilsette skjønar det eller stoler på det. Dei tilsette må få informasjon om korleis ansvaret er fordelt og korleis opplysningane om dei blir brukt. Informasjonen må vere lett tilgjengeleg og formulert på ein enkel og klar måte.</p>



<p>I prosjektet har vi spurt fokusgrupper med ulik bakgrunn korleis dei ønskjer å få informasjon. Vi erfarte at ikkje all openheit var god. Dersom verktyet for eksempel forklarte nivået på opplæringa med at den tilsette tidlegare var blitt lurt i ein test, kunne det skape irritasjon og stå i vegen for vidare læring.</p>



<p>Vi spurde også kva for informasjon dei var villig til å gi frå seg. Det var store individuelle forskjellar. Somme var opptatt av at opplysningane om dei tilsette vart godt sikra mot tilgang frå arbeidsgjevaren, og at tilsette burde få uttale seg før verktyet vart tatt i bruk. Andre framheva at dei måtte forstå målet med verktyet og korleis det verkar, for å svare ærleg.</p>



<p><strong>Og uærlege svar er rusk i det finstemte KI-maskineriet. Nøkkelen til kunstig intelligens som verkeleg verkar er tillit. Tonnevis med tillit.</strong></p>



<p></p>



<p><em>Dagens tips frå sandkassa:</em></p>



<p><em>Ikkje ta lett på kommunikasjonen med dei tilsette. Den er avgjerande for tilitten. Som er avgjerande for at verktyet verkar.</em></p>



<p> </p>



<hr class="wp-block-separator"/>



<ul class="wp-block-list"><li>Sluttrapporten frå sandkasseprosjektet med Secure Practice skal vere ferdig og bli publisert i november. Då vil du finne den på <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/" target="_blank" rel="noreferrer noopener">Sandkassesiden</a>.</li><li>Hald deg oppdatert på kva som skjer i sandkassa, søknadsfristar og arrangement ved å abonnere på sandkassas eige nyhendebrev: <a href="https://ext.mnm.as/s/4409/9366" target="_blank" rel="noreferrer noopener">Sandkassebrevet</a>.</li><li>Vil du lese meir om korleis svindlarane går fram? Sjå <a href="https://www.personvernbloggen.no/2020/08/28/koronasvindlerne/" target="_blank" rel="noreferrer noopener">Koronasvindlerne &#8211; Personvernbloggen</a>.</li></ul>



<hr class="wp-block-separator"/>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2021/10/04/ti-tonn-tillit-takk/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Testing for dummies</title>
    <link>https://www.personvernbloggen.no/2021/05/11/testing-for-dummies/</link>
    <comments>https://www.personvernbloggen.no/2021/05/11/testing-for-dummies/#respond</comments>
    <avatar>http://www.personvernbloggen.no/wp-content/uploads/2015/07/Bjørn-Erik-Thon_avatar_1436432631-200x200.jpg</avatar>
    <pubDate>Tue, 11 May 2021 11:59:58 +0000</pubDate>
    <dc:creator><![CDATA[Bjørn Erik Thon]]></dc:creator>
    		<category><![CDATA[Dataanalyse]]></category>
		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[Informasjonssikkerhet]]></category>
		<category><![CDATA[Innebygd personvern]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3412</guid>
    <description><![CDATA[Første gang jeg fikk spørsmål om å snakke for det vi litt upresist kan kalle testmiljøet, måtte jeg tenke meg grundig om. Jeg takket selvsagt ja, men jeg grunnet på hva i all verden jeg skulle si. Min første refleksjon var at testing var mindre utfordrende enn vanlig databehandling, fordi det foregikk i mindre skala [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p>Første gang jeg fikk spørsmål om å snakke for det vi litt upresist kan kalle testmiljøet, måtte jeg tenke meg grundig om. Jeg takket selvsagt ja, men jeg grunnet på hva i all verden jeg skulle si. Min første refleksjon var at testing var mindre utfordrende enn vanlig databehandling, fordi det foregikk i mindre skala og i en begrenset periode. Det skal sies at dette var i min spede barndom i Datatilsynet, og den gangen var det veldig lite snakk om testing hos oss. Vi hadde få saker og fikk få spørsmål om testing.</p>



<h2 class="wp-block-heading"><strong>Noe kan gå galt…</strong></h2>



<p>Jeg har selvsagt lært. Det har også mange virksomheter. Og testmiljøet i Norge har blitt mer modent, i den forstand at flere har fått opp øynene for hvor viktig, og ikke minst hvor utfordrende testing er. Det er dessuten ikke lenger bare funksjonelle krav i løsningen som skal testes. </p>



<p>La oss begynne med å smake på selve ordet. TEST. Det betyr å prøve ut noe, sannsynligvis noe selskapet har jobbet med lenge, og som de snart skal sette i produksjon. Det ligger nærmest i sakens natur at noe kan gå galt. Ja, vi kan si det så sterkt at det egentlig er ganske fint om noe går galt, for det er jo bedre at det går galt under testing, enn etter produksjonssetting. Men tenker vi tanken helt ut, er det å teste på ekte personopplysninger faktisk å ta en sjanse med disse menneskenes data. </p>



<p>Noe kan gå galt, og de som utfører testingen, skal nødvendigvis heller ikke ha autorisert tilgang til ekte data, for eksempel dersom det er innleide konsulenter. Nå kan ikke dette helt unngås, men det skal foreligge et behandlingsgrunnlag. De som skal teste skal være autoriserte, og vår klare anbefaling er å bruke syntetiske data ved testing. For dummies kalles dette gjerne Donald Duck-data, fordi det ikke er snakk om ekte personer eller opplysninger som kan ledes tilbake til reelle personer.</p>



<h2 class="wp-block-heading">&#8230;og det gjør det dessverre litt for ofte</h2>



<p>Det er veldig viktig å teste, derfor er også regelmessig testing eksplisitt nevnt som et aktuelt tiltak for å sørge for tilstrekkelig sikkerhet for personopplysninger. De siste årene har vi sett flere eksempler på alvorlige hendelser fordi virksomhetene ikke har testet på forhånd: </p>



<ul class="wp-block-list"><li>I en <a href="https://www.datatilsynet.no/regelverk-og-verktoy/lover-og-regler/avgjorelser-fra-datatilsynet/2019/gebyr-til-oslo-kommune-utdanningsetaten/">sak mot Oslo kommune, knyttet til appen Skolemelding</a>, ga vi et overtredelsesgebyr på 1,2 millioner kroner. Vi la bl.a. vekt på at «mangelfull testing før lansering av appen førte til at den ble lansert med sårbarheter som er godt kjent i sikkerhetsmiljøer verden over».</li><li><a href="https://www.datatilsynet.no/regelverk-og-verktoy/lover-og-regler/avgjorelser-fra-datatilsynet/2020/endelig-vedtak-om-gebyr-til-ralingen-kommune/">Rælingen kommune ble ilagt et overtredelsesgebyr på 500 000</a> kroner. Det ble blant annet gitt fordi det ikke var gjort nødvendig testing før applikasjonen Showbie ble tatt i bruk.</li><li>Vi har også nylig gitt <a href="https://www.datatilsynet.no/aktuelt/aktuelle-nyheter-2021/vedtak-om-overtredelsesgebyr-til-norges-idrettsforbund-for-mangelfull-testing/">et overtredelsesgebyr på kr 1 250 000 til Norges Idrettsforbund</a>. De testet på reelle personer i betydelig omfang da de skulle flytte data fra fysisk miljø til en skytjeneste. Resultatet var at personopplysninger var eksponert i 87 dager. (De har tre uker på å klage på vedtaket.)</li></ul>



<h2 class="wp-block-heading"><strong>Gjør test til en fest!</strong></h2>



<p>Hvordan teste riktig? Et godt sted å begynne er å lese <a href="https://www.datatilsynet.no/rettigheter-og-plikter/virksomhetenes-plikter/innebygd-personvern/programvareutvikling-med-innebygd-personvern/">Datatilsynets veileder om programvareutvikling med innebygd personvern</a>.Der er et eget kapittel om nettopp testing. Det er også en god ide å la seg inspirere av NAV. Hvert år deler vi ut en pris til beste løsning med innebygd personvern. Vinneren i 2019 var nettopp NAV med bidraget &laquo;<a href="https://www.datatilsynet.no/aktuelt/aktuelle-nyheter-2020/pris-for-innebygd-personvern-til-nav/">Gjør test til en fest! Løsning for syntetiske testdata</a>&laquo;.</p>



<p>Min testlærekurve har vært bratt, men veldig nyttig, og det var veldig stas å delta på prisutdelingen til NAV. Jeg hadde helt sikkert holdt et mye bedre foredrag om testing nå enn da denne reisen startet. Og jeg fikk min straff. Foredraget den gangen ble holdt på Thon Hotell Nydalen, og da jeg kom ut etter foredraget, var sykkelen min stjålet. Men den avklippede låsen lå igjen. Den hadde altså ikke bestått testen.</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2021/05/11/testing-for-dummies/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Glemmeboken som forsvant</title>
    <link>https://www.personvernbloggen.no/2021/04/09/glemmeboken-som-forsvant/</link>
    <comments>https://www.personvernbloggen.no/2021/04/09/glemmeboken-som-forsvant/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2018/03/Veronica-Jarnskjold-Buer_avatar_1520431898.jpg</avatar>
    <pubDate>Fri, 09 Apr 2021 08:20:55 +0000</pubDate>
    <dc:creator><![CDATA[Veronica Jarnskjold Buer]]></dc:creator>
    		<category><![CDATA[Barn og unge]]></category>
		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[Innebygd personvern]]></category>
		<category><![CDATA[Nettvett]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3383</guid>
    <description><![CDATA[Da jeg gikk på barne- og ungdomskolen, ja på videregående med, både sa og gjorde mine medelever og jeg ukloke, merkelige og dumme ting. For eksempel var «bråtabrann» nærmest en tradisjon hver vår, en tradisjon som nesten satt fyr på skolen. Det var slåsskamper, sladring om og direkte meldinger til medelever som gjorde at de [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p>Da jeg gikk på barne- og ungdomskolen, ja på videregående med, både sa og gjorde mine medelever og jeg ukloke, merkelige og dumme ting.</p>



<p>For eksempel var «bråtabrann» nærmest en tradisjon hver vår, en tradisjon som nesten satt fyr på skolen. Det var slåsskamper, sladring om og direkte meldinger til medelever som gjorde at de ble satt utenfor og ble skikkelig lei seg. Vi helte vann på «godstolen» til læreren for at klassen skulle få seg en god latter eller ta hevn for en lekseprøve læreren hadde gitt oss. Noen elever fikk tak i et pornoblad, som de smugleste i skogen bak skolen, et fristed der verken lærere eller foresatte hadde tilgang.</p>



<p>Alle husker vi kanskje noe fra denne tiden – episoder, handlinger og opplevelser som vi kanskje angrer på eller skammer oss over, og som vi nå er glad for at er glemt. <em>Ting som har fått gå i glemmeboken</em>, og ikke fulgt oss videre i livet.</p>



<p>Dagens elever er nok ikke så annerledes enn det vi var. De er like nysgjerrige, de gjør samme type aktiviteter og hyss som oss. Og dette er vel en del av menneskets utvikling fra barn til voksen. Det som <em>er</em> forskjellen mellom meg og dagens skoleelever, er at de fleste aktivitetene de gjør registreres elektronisk. &nbsp;Aktivitetene kan altså knyttes direkte til dem som barn eller elev. På den måten følger aktivitetene eleven opp gjennom oppveksten. Og kanskje gjelder det aktiviteter både på skolen og i fritiden?</p>



<p>Så – glemmeboka – som jeg er glad fantes i mine barne- og ungdomsår, finnes den lenger, eller er den forsvunnet? Klarer vi voksne å forstå hvilke konsekvenser digitaliseringen får for våre barn og for den oppvoksende generasjon?</p>



<p>På kontoret har jeg en plakat der står: «We shall all die, but our data never dies, they live forever».</p>



<p>Elevene har digitale ferdigheter i bøtter og spann, men mangler ofte digital dømmekraft. Vi voksne må sørge for å ha eller erverve en slik digital dømmekraft. Vi må ta ansvaret for å gi våre elever og barn trygge og solide digitale plattformer og verktøy, hvor personvern er innebygd og personvern er standard.</p>



<p>Barn skal ha frihet til å prøve og feile, utforske og utvikle seg uten at dette skal være tatovert inn i deres «digitale historie». Digitalisering av adferd og prestasjoner har konsekvenser for barns personvern.</p>



<p>Privatliv er et grunnleggende menneskelig behov som skaper rom for refleksjon og utvikling av personligheten. Vi har alle behov for å skape og utvikle sosiale relasjoner og ferdigheter på egen hånd, uten å bli registrert eller manipulert av ulike sosiale eller andre digitale plattformer til å forme hva vi skal mene.</p>



<p>For vi er vel fremdeles subjekter og ikke objekter når samfunnet, kommunen og skolene digitaliseres. La oss sørge for at retten til å bli glemt og få starte på ny, fremdeles finnes i vårt digitaliserte samfunn.</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2021/04/09/glemmeboken-som-forsvant/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Godt personvern eller kunstig intelligens som kjenner deg godt?</title>
    <link>https://www.personvernbloggen.no/2021/03/03/godt-personvern-eller-kunstig-intelligens-som-kjenner-deg-godt/</link>
    <comments>https://www.personvernbloggen.no/2021/03/03/godt-personvern-eller-kunstig-intelligens-som-kjenner-deg-godt/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2018/10/Kari-Laumann_avatar_1539256187-200x200.jpg</avatar>
    <pubDate>Wed, 03 Mar 2021 08:21:23 +0000</pubDate>
    <dc:creator><![CDATA[Kari Laumann]]></dc:creator>
    		<category><![CDATA[Informasjonssikkerhet]]></category>
		<category><![CDATA[Innebygd personvern]]></category>
		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[Offentlig forvaltning]]></category>
		<category><![CDATA[Personvernforordningen (GDPR)]]></category>
		<category><![CDATA[Teknologi]]></category>
		<category><![CDATA[anonymisering]]></category>
		<category><![CDATA[ansvarlig KI]]></category>
		<category><![CDATA[ansvarlig kunstig intelligens]]></category>
		<category><![CDATA[avidentifisering]]></category>
		<category><![CDATA[behandlingsgrunnlag]]></category>
		<category><![CDATA[dataminimering]]></category>
		<category><![CDATA[datatilsynet]]></category>
		<category><![CDATA[etisk KI]]></category>
		<category><![CDATA[etisk kunstig intelligens]]></category>
		<category><![CDATA[innovasjon]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Norge]]></category>
		<category><![CDATA[personvern]]></category>
		<category><![CDATA[regulatorisk sandkasse]]></category>
		<category><![CDATA[rettferdighet]]></category>
		<category><![CDATA[sandkassa]]></category>
		<category><![CDATA[Sandkasse for ansvarlig kunstig intelligens]]></category>
		<category><![CDATA[søknader]]></category>
		<category><![CDATA[transparens]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3364</guid>
    <description><![CDATA[Det kan virke som en umulig oppgave. Men da Datatilsynets nyopprettede regulatoriske sandkasse stilte spørsmålet, var det gledelig mange i det norske KI-miljøet som svarte som Ole Brumm. Ja takk, begge deler! Vi fikk inn 25 søknader til den regulatoriske sandkassen for kunstig intelligens (KI) og personvern. Spennet i søknadene viser det enorme potensialet KI [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p>Det kan virke som en umulig oppgave. Men da Datatilsynets nyopprettede regulatoriske sandkasse stilte spørsmålet, var det gledelig mange i det norske KI-miljøet som svarte som Ole Brumm. Ja takk, begge deler! </p>



<p>Vi fikk inn 25 søknader til den regulatoriske sandkassen for kunstig intelligens (KI) og personvern. Spennet i søknadene viser det enorme potensialet KI har for å forbedre og effektivisere samfunnet vårt. Samtidig ser vi helt klart et behov for avklaring av hvordan deler av personvernregelverket skal tolkes i praksis.</p>



<h2 class="wp-block-heading">Topp 5</h2>



<p>Lista over tematikk, som søkerne i første runde med Datatilsynets sandkasse ønsker hjelp med, toppes av disse fem:</p>



<ol class="wp-block-list"><li>Transparens</li><li>Dataminimering</li><li>Rettferdighet</li><li>Anonymisering/avidentifisering</li><li>Behandlingsgrunnlag</li></ol>



<p>Tilbakemeldingene vi har fått fra søkerne er at regelverket er der, men hvordan skal vi gjøre det i praksis? Hvor detaljert må forklaringen være? Hvordan kan vi bruke så lite data som mulig (dataminimering), men samtidig få nøyaktige resultater? Hvordan kan vi designe et system som er rettferdig for brukeren og ikke diskriminerer?</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="972" height="641" src="https://www.personvernbloggen.no/wp-content/uploads/2021/03/tematikk-topp-5-forste-runde.jpg" alt="" class="wp-image-3365" srcset="https://www.personvernbloggen.no/wp-content/uploads/2021/03/tematikk-topp-5-forste-runde.jpg 972w, https://www.personvernbloggen.no/wp-content/uploads/2021/03/tematikk-topp-5-forste-runde-480x317.jpg 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) 972px, 100vw" /></figure>



<p>Vi er i gang med å velge ut fire prosjekter av de 25 søknadene som vi skal jobbe tett med for å utforske gode personvernløsninger i de ulike løsningene. Målet med sandkassen er å jobbe frem gode personvernløsninger for å vise frem at KI og personvern kan gå hånd i hånd, og gi eksempler på vurderinger og personverntiltak i konkrete prosjekter. Vi håper det kan være til hjelp og inspirasjon for andre virksomheter som benytter personopplysninger og KI.</p>



<h2 class="wp-block-heading">KI overalt</h2>



<p>Kunstig intelligens kan gjøre utdanningen mer tilpasset og presis, den kan hjelpe med å effektivisere helsehjelp og fange opp sykdom på et tidlig tidspunkt, den kan spare samfunnet for store verdier ved å avdekke hvitvasking på en måte mennesker ikke kan. Søknadene representerer mange ulike sektorer, og vi har alt fra små oppstartsselskaper til store offentlige aktører på <a href="https://www.datatilsynet.no/aktuelt/aktuelle-nyheter-2021/25-sokarar-til-sandkassa/" target="_blank" rel="noreferrer noopener">listen</a>.</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="907" height="544" src="https://www.personvernbloggen.no/wp-content/uploads/2021/03/Tematikk-forste-runde.jpg" alt="" class="wp-image-3366" srcset="https://www.personvernbloggen.no/wp-content/uploads/2021/03/Tematikk-forste-runde.jpg 907w, https://www.personvernbloggen.no/wp-content/uploads/2021/03/Tematikk-forste-runde-480x288.jpg 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) 907px, 100vw" /></figure>



<p>11 av søkerne kommer fra offentlig sektor, og 14 fra privat sektor.</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="849" height="553" src="https://www.personvernbloggen.no/wp-content/uploads/2021/03/sektorfordeling-forste-runde.jpg" alt="" class="wp-image-3367" srcset="https://www.personvernbloggen.no/wp-content/uploads/2021/03/sektorfordeling-forste-runde.jpg 849w, https://www.personvernbloggen.no/wp-content/uploads/2021/03/sektorfordeling-forste-runde-480x313.jpg 480w" sizes="(min-width: 0px) and (max-width: 480px) 480px, (min-width: 481px) 849px, 100vw" /></figure>



<p>Nå gleder vi oss til å komme i gang med de første sandkasseprosjektene. Følg gjerne med på <a href="https://www.datatilsynet.no/regelverk-og-verktoy/sandkasse-for-kunstig-intelligens/" target="_blank" rel="noreferrer noopener">våre nettsider</a> om nytt fra sandkassen – vi staser på å dele oppdateringer underveis i prosjektene. Første runde vil vare i 3-6 måneder, og vi kjører nytt opptak når vi har kapasitet til høsten.&nbsp;</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2021/03/03/godt-personvern-eller-kunstig-intelligens-som-kjenner-deg-godt/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Digital smittesporing: Den første store testen på personvernforordningen</title>
    <link>https://www.personvernbloggen.no/2021/01/28/digital-smittesporing-den-forste-store-testen-pa-personvernforordningen/</link>
    <comments>https://www.personvernbloggen.no/2021/01/28/digital-smittesporing-den-forste-store-testen-pa-personvernforordningen/#respond</comments>
    <avatar>http://www.personvernbloggen.no/wp-content/uploads/2015/07/Bjørn-Erik-Thon_avatar_1436432631-200x200.jpg</avatar>
    <pubDate>Thu, 28 Jan 2021 12:54:41 +0000</pubDate>
    <dc:creator><![CDATA[Bjørn Erik Thon]]></dc:creator>
    		<category><![CDATA[Dataanalyse]]></category>
		<category><![CDATA[Helse]]></category>
		<category><![CDATA[Ikke kategorisert]]></category>
		<category><![CDATA[Informasjonssikkerhet]]></category>
		<category><![CDATA[Innebygd personvern]]></category>
		<category><![CDATA[Korona]]></category>
		<category><![CDATA[Offentlig forvaltning]]></category>
		<category><![CDATA[Personverndagen]]></category>
		<category><![CDATA[Personvernforordningen (GDPR)]]></category>
		<category><![CDATA[Teknologi]]></category>
		<category><![CDATA[korona]]></category>
		<category><![CDATA[Smittestopp]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3342</guid>
    <description><![CDATA[Dette innlegget ble holdt på Personverndagen, 28. januar 2021. Gratulerer med dagen alle sammen, og hjertelig velkommen til årets personvernkonferanse. For første, og forhåpentligvis siste gang, holdes konferansen utelukkende digitalt. Men vi vet at mange sitter klistret foran skjermen med popcorn, cola og jeg har hørt rykter om strikketøy, og det er vi veldig glade [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p><em>Dette innlegget ble holdt på Personverndagen, 28. januar 2021.</em></p>



<p>Gratulerer med dagen alle sammen, og hjertelig velkommen til årets personvernkonferanse. For første, og forhåpentligvis siste gang, holdes konferansen utelukkende digitalt. Men vi vet at mange sitter klistret foran skjermen med popcorn, cola og jeg har hørt rykter om strikketøy, og det er vi veldig glade for.</p>



<p>Det spørsmålet jeg skal forsøke å besvare, er om digital smittesporing er den første store testen på effekten av personvernforordningen. Og like viktig, om personvernverdiene står seg under press. Dette spørsmålet kan selvsagt ikke besvares med «ja» eller «nei». Særlig i den tiden vi nå lever i, kan svært få spørsmål besvares så enkelt. Til det er usikkerheten for stor.</p>



<h2 class="wp-block-heading">Smittestopp og personvern</h2>



<p>Men det er en del &#8211; la oss kalle det signaler, som i hvert fall trekker i retning av at svaret er «ja». Jeg skal ikke bruke tid på å snakke om de juridiske sidene av Smittestopp-saken, men si litt om hva vi kan trekke ut av prosessen i Norge og i andre land. Jeg vil også se på hva vi kan trekke ut av reaksjonene som kom fra politisk hold, teknologimiljøene, organisasjoner og norske borgere.</p>



<p>Vi så tidlig at myndigheter i mange land rullet ut egenutviklede løsninger som senere måtte trekkes tilbake av personverngrunner. Det som skjedde med Smittestopp i Norge var derfor ikke unikt &#8211; i motsetning til det som kanskje har festet seg som et inntrykk. Men den norske løsningen var blant de mest inngripende.</p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow"><p>I en krisesituasjon vil mange bytte litt frihet med trygghet. Vi må også et stykke på vei akseptere en slik byttehandel.</p></blockquote>



<p>I Storbritannia kom myndighetene for eksempel med en egenutviklet app (NHS Covid-19), basert på bluetooth og sentral lagring. De måtte trekke den tilbake på grunn av kritikk (blant annet problemer med Apples bluetooth-begrensninger) og manglende effekt. De gikk etterhvert over til Google/Apple-løsningen.</p>



<p>I Tyskland lanserte myndighetene en egenutviklet app (CoronaWarn) basert på bluetooth og sentral lagring. Den måtte også trekkes tilbake på grunn av kritikk (blant annet problemer med Apples bluetooth-begrensninger) og manglende effekt, og gikk over til Google/Apple. Forskjellen mellom Storbritannia og Tyskland er at Tyskland snudde seg raskt.</p>



<p>Vi kan kanskje nevne Danmark, som ventet med å utvikle appen. Hvorfor? Det kan ha å gjøre med at de ventet til de var trygge på løsningen, fra et sikkerhets- og personvernperspektiv.</p>



<p>I Norge kjenner vi historien. FHI <a href="https://www.datatilsynet.no/regelverk-og-verktoy/lover-og-regler/avgjorelser-fra-datatilsynet/2020/vedtar-midlertidig-forbud-mot-smittestopp/">måtte trekke tilbake appen på grunn av et vedtak fra oss</a>.</p>



<h2 class="wp-block-heading">En test av personvernlovgivningen</h2>



<p>Et delsvar på spørsmålet mitt er altså at myndigheter i flere europeiske land ble tvunget til å utvikle mer personvernvennlige løsninger som følge av kritikk. Det vitner om en personvernlovgivning som tåler å testes i krevende situasjoner. Selv om det vi i Datatilsynet har stått i ikke kan sammenlignes med det helsemyndighetene har stått i, skal det ikke stikkes under en stol at det å behandle saker knyttet til smittesporing har vært krevende.</p>



<p>I en krisesituasjon vil mange bytte litt frihet med trygghet. Vi må også et stykke på vei akseptere en slik byttehandel. Derfor er det ekstra interessant, i lys av temaet for dette foredraget, å se nærmere på de reaksjonene Smittestopp-saken utløste.</p>



<p>Og ettersom det tross alt er personverndagen i dag (vår egen dag!) er jeg navlebeskuende nok til å begynne med oss selv. Den dagen Smittestopp-prosjektet ble lansert, sa jeg i Dagsnytt 18: «en smitteapp kan, i en krisetid, være et akseptabelt tiltak for å slå tilbake pandemien og redde liv».</p>



<p>I <a href="https://www.datatilsynet.no/aktuelt/aktuelle-nyheter-2020/ny-sporings-app-for-a-hindre-koronasmitte/">nettmeldingen</a> vi sendte ut 27. mars skrev vi:</p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow"><p>«Vi etterlater oss en lang rekke digitale spor hver dag, og i motsetning til ved tidligere pandemier, har vi nå mulighet til å bruke disse dataene til å kartlegge smittespredning og varsle befolkningen på nye måter. Det er viktig å benytte seg av slike muligheter, men vi har ikke tidligere vurdert hvor langt vi kan gå i å tillate at personverndata blir brukt til slike formål i en krisesituasjon».</p></blockquote>



<p>Personvernrådet (en sammenslutning av alle datatilsynsmyndighetene i EU- og EØS-området) uttalte at personvernforordningen «ikke er til hinder for tiltak som kan bekjempe koronavirus-epidemien». Rådet understrekte samtidig at myndighetene må beskytte borgernes grunnleggende rettigheter selv om det er mulig for medlemsstatene å innføre lovgivningstiltak for å ivareta offentlig sikkerhet.</p>



<p>Personvernrådet fortsetter slik: «Denne typen lovgivning er kun lovlig dersom det utgjør et <strong>nødvendig, egnet og forholdsmessig tiltak</strong> i et demokratisk samfunn».</p>



<p>Og som en parentes, før vi går videre: Disse verdiene speiler innholdet i EMK artikkel 8, som fastslår retten til privatliv.&nbsp;</p>



<h2 class="wp-block-heading">Har bestått testen</h2>



<p>De signalene personvernmyndighetene ga, er viktig i en vurdering av om forordningen har bestått testen. Fordi vi anerkjente bruken av teknologi for å bekjempe pandemien, og fordi sluttresultatet er en smittesporingsapp som er akseptabel fra et personvernståsted.</p>



<p>La oss så se på reaksjonene fra andre grupper i samfunnet.</p>



<p>Teknomiljøet var raskt ute. I dette miljøet har vi selvsagt en del personvernere, men det slo oss at bredden i kritikken var stor. Det gikk ikke på digital smittesporing som sådan, men på teknologivalg og sikkerhet, og omfanget av inngrepet overfor den enkelte. Det ble laget et opprop, en sjeldenhet generelt, og kanskje i teknologimiljøet spesielt, og viser tydelig at engasjementet for personvern er betydelig.</p>



<p>Også folk flest viste stor interesse. Uten å lage noe stort nummer ut av det &#8211; men jeg får jo en del e-post fra folk som har meninger om det vi gjør &#8211; smittestopp engasjerte voldsomt, og det i begge retninger. Vi mottok også formelle klager fra norske borgere. Saken ble heftig debattert, var i Dagsnytt 18 flere ganger, samt i andre nyhetssendinger. Saken gikk også sine svært aktive runder på Twitter og andre sosiale nettsamfunn, og ble også omtalt internasjonalt.</p>



<p>Det er også verdt å merke seg at Stortinget vedtok å dele smittestopp i to: én for smittesporing og én for modellering av smittespredning, forskning og eventuelt andre formål. Og til slutt: <a href="https://amnesty.no/bahrain-kuwait-og-norge-har-de-verste-korona-appene" target="_blank" rel="noreferrer noopener">Amnesty kom på banen med en rangering av ulike smitteapper, i et menneskerettighetsperspektiv</a>.</p>



<p>Alt dette trekker etter min mening i retning av at personvernforordningen, og verdiene den beskytter, har blitt testet, og bestått. Grunnen er denne:</p>



<p>Det som har engasjert borgere og forbrukere, teknologimiljøet, politikere og organisasjoner, er at Smittestopp utfordret noen viktige prinsipper i personvernregelverket. Stortinget var opptatt av formålsprinsippet. Sikkerhet og teknologivalg, og viktige prinsipper som dataminimering og skikkelige konsekvensvurderinger, var særlig viktig hos teknologimiljøet. Amnesty var opptatt av koblingen mellom personvern og menneskerettigheter som kommer fra samme verdigrunnlag. Norske borgere var i stor grad opptatt av det som er kjernen i personvernet, her uttrykt på en folkelig måte: Frihet fra urettmessig overvåking.</p>



<h2 class="wp-block-heading">Er vi avhengige av Silicon Valley?</h2>



<p>Det er imidlertid noen tankekors som ikke bare handler om forordningen, men også om teknologiutvikling, og kanskje også forretningsmodeller. Det er Google og Apple sine roller.</p>



<p>Dagens Smittestopp er langt mer personvernvennlig enn den første. Den er like fullt bygget på infrastrukturen der i hvert fall ett av selskapene er sterkt kritisert for sin holdning til personvern, og nå har flere store saker mot seg fra personvernmyndigheter. Er det uproblematisk at myndigheter i demokratiske stater er avhengige av Silicon Valley for å levere viktige tjenester til innbyggerne? Dette er et godt tema for diskusjonen senere.</p>



<p>Takk for oppmerksomheten!</p>



<p><strong>Datatilsynet og Teknologirådet markerte også i år den internasjonale personverndagen den 28. januar med et åpent møte – denne gangen på nett.</strong> <a href="https://www.datatilsynet.no/aktuelt/aktuelle-nyheter-2021/personverndagen-2021--korona-spesial/" target="_blank" rel="noreferrer noopener">Les mer om arrangementet og se opptak </a></p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2021/01/28/digital-smittesporing-den-forste-store-testen-pa-personvernforordningen/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Algoritmer, tillit og sandkasser</title>
    <link>https://www.personvernbloggen.no/2021/01/06/algoritmer-tillit-og-sandkasser/</link>
    <comments>https://www.personvernbloggen.no/2021/01/06/algoritmer-tillit-og-sandkasser/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2021/01/eirik-kvadr-200x200.jpg</avatar>
    <pubDate>Wed, 06 Jan 2021 09:56:49 +0000</pubDate>
    <dc:creator><![CDATA[Eirik Gulbrandsen]]></dc:creator>
    		<category><![CDATA[Forbrukerrettigheter]]></category>
		<category><![CDATA[Innebygd personvern]]></category>
		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[Sosiale medier]]></category>
		<category><![CDATA[Teknologi]]></category>
		<category><![CDATA[Sandkasse for ansvarlig kunstig intelligens]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3330</guid>
    <description><![CDATA[Mot slutten av 1800-tallet i USA undersøkte kjemikeren Harvey Wiley innholdet i en rekke industrielt produserte matvarer. 90 prosent av honningkrukkene inneholdt ikke honning. Lønnesirup var stort sett ikke lønnesirup. Og syltetøy bestod, som de nevnte matvarene, også stort sett av billig maissirup, hvor &#171;syltetøy&#187; var tilsatt epleskall for tekstur. Verre var det at melk [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p>Mot slutten av 1800-tallet i USA undersøkte kjemikeren Harvey Wiley innholdet i en rekke industrielt produserte matvarer. 90 prosent av honningkrukkene inneholdt ikke honning. Lønnesirup var stort sett ikke lønnesirup. Og syltetøy bestod, som de nevnte matvarene, også stort sett av billig maissirup, hvor &laquo;syltetøy&raquo; var tilsatt epleskall for tekstur. Verre var det at melk ble tilsatt formaldehyd og gipspulver for å fremstå som frisk, hvit og ubedervet. Barn ble syke og døde. I 1906 opprettet USA sin første forbrukervernlov for å sikre trygg mat. <sup>1</sup></p>



<h2 class="wp-block-heading">En digital nedkjølingseffekt</h2>



<p>Datatilsynet gjennomførte i årskiftet 2019/2020 en personvernundersøkelse som blant annet påviser en digital nedkjølingseffekt. Det betyr at mange begrenser bruken av digitale tjenester eller lar være å bruke dem. Effekten av digitalisering bremses fordi man ikke har den nødvendige tilliten til tjenestene – med rette.</p>



<p>Det blir stadig tydeligere at gigantene bak «sosiale medier» &#8211; som 1800-tallets matprodusenter &#8211; ikke tilbyr tjenestene til samfunnets og enkeltmenneskenes beste. Google, Facebook mfl. er i realiteten først og fremst annonsesalgsselskaper. Gjennom kynisk bruk av algoritmer, ønsker de først og fremst at du trykker på så mange annonser som mulig via deres plattformer. </p>



<figure class="wp-block-pullquote"><blockquote><p>Dette er den moderne varianten av maissirup og utvannet melk – en dystopisk og polariserende digital virkelighet skapt fordi man ønsker å selge annonser.</p><cite>Eirik Gulbrandsen</cite></blockquote></figure>



<p>Algoritmene som benyttes i disse sammenhengene faller i mange tilfeller innenfor (en relativt bred) definisjon av «kunstig intelligens» (KI). <sup>2</sup></p>



<h2 class="wp-block-heading">Enormt potensial</h2>



<p>Det positive potensialet for løsninger som benytter KI-algoritmer er enormt. Som f.eks. bedre og mer effektive helsetjenester, inkludert nyttige og effektive offentlige og private tjenester generelt. Ikke bare i industrialiserte land, men kanskje spesielt i land med krevende utfordringer knyttet til økonomi og samfunnsinfrastruktur.</p>



<p>Samtidig kan teknologien – tilsiktet eller ikke – føre til løsninger som konsekvent foreslår menn til tekniske stillinger i Google. Eller sørge for at det systematisk blir foreslått strengere straffer for afroamerikanere i det amerikanske rettssystemet. Eller foreslår kostbare helsebehandlinger for noen grupper, og ikke for andre. Uten av vi &#8211; inkl. &laquo;ekspertene&raquo; &#8211; kanskje helt skjønner hvorfor?</p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow"><p>Der Wiley satt blant glasskolber og målebegre for å finne forklaring på hva «syltetøyet» egentlig var, trenger vi gode metoder, mekanismer og prosesser for å forklare hva komplekse algoritmer med kunstig intelligens egentlig gjør. </p></blockquote>



<p>Dette behovet for forklarbarhet er grunnleggende viktig for å kunne håndheve et av de grunnleggende prinsippene i Personvernforordningen – rettferdighetsprinsippet (<a href="https://lovdata.no/dokument/NL/lov/2018-06-15-38/KAPITTEL_gdpr-2#KAPITTEL_gdpr-2" target="_blank" rel="noreferrer noopener">Personvernforordningen/GDPR Art 5.1</a>).</p>



<p>Men hva er en god og forståelig forklaring? Når er forklaringen «god nok»? Når må man forklare og på hvilken måte? Dette gjelder ikke spesielt løsninger som benytter kunstig intelligens, men får ekstra gyldighet når man benytter akkurat denne teknologien. KI som konsept er ikke nytt, men den massive utbredelsen og tilgjengeligheten av teknologien siste årene gjør at dette har fått helt ny aktualitet.</p>



<h2 class="wp-block-heading">Sandkasse for kunstig intelligens</h2>



<p>Som en del av Nasjonal strategi for KI (tidlig 2020) var et av tiltakene å opprette en såkalt sandkasse spesifikt for kunstig intelligens. Datatilsynet fikk oppdraget med å realisere denne, og allerede 1. desember 2020 ble det åpnet for søknader. Her skal alle typer virksomheter av alle størrelser kunne melde inn prosjekter, som benytter KI og persondata, gjerne på måter som krever en grundig forståelse av hvordan man skal sikre at dette gjøres innenfor lover, regler og god praksis for ansvarlig bruk av teknologien. Mange svar på dette er ubesvarte, uklare eller krever en god og bredt sammensatt kompetanse for å avklares. Sandkassen er et sted hvor man sammen kan lære, også Datatilsynet. Og resultatene vil publiseres for å dele kunnskapen med alle. Målet er at det skapes løsninger med nytteverdi for samfunnet og enkeltmennesket, samtidig som enkeltmenneskets rettigheter ivaretas. </p>



<figure class="wp-block-pullquote"><blockquote><p>Dette legger også grunnlaget for tillit – kanskje det aller viktigste elementet for å lykkes over tid. Å produsere KI-løsninger i Norge som har stor forbrukertillit er også en eksportartikkel med enormt potensial for hele verden.</p><cite>Eirik Gulbrandsen</cite></blockquote></figure>



<p>Nysgjerrig på sandkassen? I gang med å etablere eller godt i gang med et prosjekt, en tjeneste eller et selskap som enten utvikler eller benytter løsninger hvor KI og persondata er viktige elementer?</p>



<p>Ta en kikk på <a href="https://www.datatilsynet.no/sandkasse" target="_blank" rel="noreferrer noopener">datatilsynet.no/sandkasse</a> og hvis du kjenner «kallet» &#8211; send inn en <a href="https://www.datatilsynet.no/contentassets/166b3f347d2e489c87234c6005927e10/soknadsskjema---nett.docx" target="_blank" rel="noreferrer noopener">søknad</a> om deltagelse! Søknadsfristen for første runde er 15. januar 2021.</p>



<ul class="wp-block-list"><li><sup>1</sup> Fra boken «Det store spillet», Bår Stenvik</li><li><sup>2</sup> «Kunstig intelligente systemer utfører handlinger, fysisk eller digitalt, basert på tolkning og behandling av strukturerte eller ustrukturerte data, i den hensikt å oppnå et gitt mål.» Nasjonal strategi for kunstig intelligens, KMD.</li></ul>



<p></p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2021/01/06/algoritmer-tillit-og-sandkasser/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Personvern i digital undervisning er absolutt mulig</title>
    <link>https://www.personvernbloggen.no/2020/10/13/personvern-i-digital-undervisning-er-absolutt-mulig/</link>
    <comments>https://www.personvernbloggen.no/2020/10/13/personvern-i-digital-undervisning-er-absolutt-mulig/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2018/03/Veronica-Jarnskjold-Buer_avatar_1520431898.jpg</avatar>
    <pubDate>Tue, 13 Oct 2020 06:51:30 +0000</pubDate>
    <dc:creator><![CDATA[Veronica Jarnskjold Buer]]></dc:creator>
    		<category><![CDATA[Barn og unge]]></category>
		<category><![CDATA[Digitalisering]]></category>
		<category><![CDATA[Informasjonssikkerhet]]></category>
		<category><![CDATA[Innebygd personvern]]></category>
		<category><![CDATA[Teknologi]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=3295</guid>
    <description><![CDATA[Da pandemien først traff, og skoler og samfunnet måtte digitaliseres nærmest over natta, ble kvalitet på undervisning og deltagelse forståelig nok de to viktigste målene i digitaliseringsdugnaden. Nye tjenester for digital undervisning ble tatt i bruk, og lærere samlet seg i Facebookgrupper. Der kunne de stille spørsmål og dele tips om alt fra praktisk undervisning [&#8230;]]]></description>
        <content:encoded><![CDATA[
<p>Da pandemien først traff, og skoler og samfunnet måtte digitaliseres nærmest over natta, ble kvalitet på undervisning og deltagelse forståelig nok de to viktigste målene i digitaliseringsdugnaden. Nye tjenester for digital undervisning ble tatt i bruk, og lærere samlet seg i Facebookgrupper. Der kunne de stille spørsmål og dele tips om alt fra praktisk undervisning til hvordan man følger opp elever når man ikke i like stor grad kan se dem og følge utviklingen deres. Skoler og lærere burde berømmes for arbeidet og endringsviljen de viste da samfunnet stengte.&nbsp;</p>



<p>Nå som det verste har lagt seg, er det på tide at vi tar et pust i bakken og tenker på personvernutfordringene knyttet til digitaliseringen. I 2020 flyttet mer enn 800 000 elever i grunnskolen og høyere utdanning seg fra skolepulter og lesesaler og inn i digitale klasserom. Per i dag er det i det store og det hele opp til hver enkelt kommune å vurdere om personvernet ivaretas for den enkelte elev i en digital skolehverdag.</p>



<p>Barn og sårbare grupper har et spesielt vern i personvernforordningen, og det stilles strengere krav til behandling av personopplysninger tilhørende barn og sårbare grupper. </p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow"><p>Mange spør seg om for mye av barnas aktiviteter og fritid nå registreres digitalt, selv om hensikten er god. Barn skal også få utfolde seg, uttale seg og oppføre seg fritt uten at det tatoveres inn i deres digitale historie.</p></blockquote>



<h2 class="wp-block-heading">Hva er innebygd personvern?&nbsp;</h2>



<p>Innebygd personvern og personvern som standardinnstilling er et krav i personopplysningsloven. Det betyr at nye løsninger og ny teknologi skal ha personvern bygget inn fra starten. Det betyr også at de innebygde tiltakene ivaretar dine og mine rettigheter og friheter på en effektiv måte. Eksempler på dette kan være effektiv ivaretakelse av kommunikasjonsvernet til elevene og at kun nødvendige personopplysninger samles inn.</p>



<p>Ifølge barneloven har barn ned i syvårsalderen rett til selvbestemmelse i saker av personlig karakter. Elektronisk kommunikasjon er også personlig, slik som når eleven bruker chat, sender e-post eller diskuterer med andre elever og lærere. Det er viktig at teknologi som benyttes i skolesammenheng, allerede fra idéstadiet har personvern som et urokkelig produktelement. Men hvordan ser dette ut i et produkt eller en tjeneste?</p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow"><p>Når det skal designes og implementeres digitale verktøy i skolen, er det viktig å ha en del tanker i hodet samtidig. Hvilke data lagres? Hvordan fremstår dette for den som bruker produktet? Hvilke tillatelser må gis for at produktet skal fungere optimalt? Hva sier brukervilkårene? Hvem har tilgang på informasjonen? Hvem berøres av produktet utover brukeren?</p></blockquote>



<h2 class="wp-block-heading">Personvern i alle ledd</h2>



<p>Personvern i praksis er når produkter gir gode svar på disse spørsmålene i alle ledd, og personvern i praksis er noe vi alle må få under huden. Om du lager et produkt for barn, sørg for å ha skreddersydde brukervilkår så de er lettfattelige og oversiktlige. Barns rett til selvbestemmelse kan manifestere seg i en trygg innloggingsfunksjon kun barnet har tilgang på, og man kan sikre seg mot at sensitiv data kommer på avveier ved å kryptere dem, eller ved å sørge for at de kun eksisterer i sanntid, og ikke lagres på servere.</p>



<p>For å belyse dette, har jeg lyst til å trekke fram <a href="https://www.noisolation.com/no/av1/#header" target="_blank" rel="noreferrer noopener">AV1-roboten</a> &nbsp;som et eksempel på teknologi som ivaretar personvernet på en ansvarlig måte i digital undervisning.</p>



<h2 class="wp-block-heading">Innebygd personvern i praksis</h2>



<p>Hvert år arrangerer Datatilsynet en konkurranse om innebygd personvern i praksis. I fjor kom No Isolation på andreplass i konkurransen med kommunikasjonsroboten AV1, <a href="https://www.noisolation.com/no/av1/privacy-and-resources/" target="_blank" rel="noreferrer noopener">en løsning som nettopp ivaretar personvernet sett fra barnet og barnets perspektiv i digital undervisning</a>.</p>



<p>I juryens begrunnelse pekte vi i juryen på at No Isolation som leverandør tar stort ansvar for en god løsning selv om ansvaret juridisk sett tilhører de behandlingsansvarlige, som i mange tilfeller er kommuner. No Isolation har skapt en helhetlig løsning, hvor personvern er ivaretatt i nesten alle ledd.&nbsp; Medgrunnlegger av No Isolation, Matias Doyle, forklarer det slik: “Det er viktig at alle som har en AV1 i klasserommet er helt sikre på hvem som er på andre siden. Det skal aldri være tvil om hvem som er pålogget roboten. Derfor må brukeren skrive inn passord hver gang roboten skal brukes.”</p>



<h2 class="wp-block-heading">Hva nå?</h2>



<p>Det var viktig og bra at vi klarte å omstille oss over natten i mars. Men nå må vi sørge for at denne omstillingen ikke skjer på bekostning av personvernet og rettighetene til barn og unge. Vi har derfor utarbeidet en sjekkliste dere alltid bør gå gjennom før nye digitale hjelpemidler i skolen tas i bruk:&nbsp;</p>



<ul class="wp-block-list"><li>Husk at kommunen har ansvar for alle elvenes personopplysninger i den digitale undervisningsplattformen.</li><li>Mengden av innsamlede og prosesserte personopplysninger begrenses til det tillatte og kun det som er absolutt nødvendig (dataminimering). Opplysningene skal slettes når videre lagring ikke er nødvendig for formålet. «Select before you collect».</li><li>Den digitale undervisningsplattformen som skolene benytter må designes slik at elever og foresatte er godt nok informert om hvordan plattformen fungerer og hvordan personopplysningene til eleven behandles.&nbsp; Bruk gjerne bilder, ikoner og symboler for å gjøre informasjonen tydelig. Animasjon, video og lyd kan også være gode virkemidler.</li><li>Skolene må sørge for at både personopplysningene og den digitale plattformen er sikret godt nok. Sikkerheten skal baseres på risikovurderinger. Bruk gjerne anerkjente sikkerhetsstandarder.</li><li>Kommunen er forpliktet til å benytte systemer, programmer og apper som har innebygd personvern og personvern som standardinnstilling.</li></ul>



<h2 class="wp-block-heading">Ny konkurranse innebygd personvern</h2>



<p>Datatilsynet har utlyst <a href="https://www.datatilsynet.no/aktuelt/aktuelle-nyheter-2020/konkurranse---innebygd-personvern-i-praksis-2020/" target="_blank" rel="noreferrer noopener">en konkurranse om innebygd personvern i praksis også nå i 2020</a>. Vi inviterer der alle som har en løsning, applikasjon eller et&nbsp;system som er utviklet med prinsippene for innebygd personvern til å melde seg på. Det er også en egen kategori for studenter. <strong>Påmeldingsfrist er 1. desember 2020. </strong></p>



<h2 class="wp-block-heading">Lykke til!</h2>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2020/10/13/personvern-i-digital-undervisning-er-absolutt-mulig/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
  </channel>
</rss>