<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
  xmlns:content="http://purl.org/rss/1.0/modules/content/"
  xmlns:wfw="http://wellformedweb.org/CommentAPI/"
  xmlns:dc="http://purl.org/dc/elements/1.1/"
  xmlns:atom="http://www.w3.org/2005/Atom"
  xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
  xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
  >
<channel>
  <title>PersonvernbloggenBig Data Archives - Personvernbloggen</title>
  <atom:link href="https://www.personvernbloggen.no/tag/big-data/feed/" rel="self" type="application/rss+xml" />
  <link>https://www.personvernbloggen.no/tag/big-data/</link>
  <description>Datatilsynets blogg om personvernspørsmål</description>
  <lastBuildDate>Wed, 28 Jan 2026 19:31:14 +0000</lastBuildDate>
  <language>nb-NO</language>
    <sy:updatePeriod>hourly</sy:updatePeriod>
    <sy:updateFrequency>1</sy:updateFrequency>
  <generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.personvernbloggen.no/wp-content/uploads/2018/03/cropped-DT-Favicon-32x32.jpg</url>
	<title>Big Data Archives - Personvernbloggen</title>
	<link>https://www.personvernbloggen.no/tag/big-data/</link>
	<width>32</width>
	<height>32</height>
</image> 
  <item>
    <title>Autoritær Intelligens</title>
    <link>https://www.personvernbloggen.no/2018/03/23/autoritaer-intelligens/</link>
    <comments>https://www.personvernbloggen.no/2018/03/23/autoritaer-intelligens/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2018/01/Catharina-Nes_avatar_1514973070-200x200.jpg</avatar>
    <pubDate>Fri, 23 Mar 2018 15:19:44 +0000</pubDate>
    <dc:creator><![CDATA[Catharina Nes]]></dc:creator>
    		<category><![CDATA[Internasjonalt]]></category>
		<category><![CDATA[Sosiale medier]]></category>
		<category><![CDATA[Teknologi]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[GDPR]]></category>
		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[menneskerettigheter]]></category>
		<category><![CDATA[Overvåking]]></category>
		<category><![CDATA[personvern]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=2492</guid>
    <description><![CDATA[Med tilgang til enorme datamengder &#8211; og få restriksjoner på hvordan disse kan utnyttes &#8211; tar Kina nå ledertrøyen i kappløpet om utviklingen av kunstig intelligens.  (artikkelen sto på trykk i Dagens Næringsliv 15. februar 2018) Kina har vokst frem som et gigantisk laboratorium for eksperimentell databruk. Tre av de ti største internettselskapene i verden [&#8230;]]]></description>
        <content:encoded><![CDATA[<p><em>Med tilgang til enorme datamengder &#8211; og få restriksjoner på hvordan disse kan utnyttes &#8211; tar Kina nå ledertrøyen i kappløpet om utviklingen av kunstig intelligens. <span style="color: #444444;font-family: Helvetica"> (artikkelen sto på trykk i Dagens Næringsliv 15. februar 2018)</span></em></p>
<p>Kina har vokst frem som et gigantisk laboratorium for eksperimentell databruk. Tre av de ti største internettselskapene i verden er nå kinesiske: Baidu, Alibaba og Tencent, populært kalt BAT. På enkelte områder, for eksempel innen finansiell teknologi og mobile betalingsløsninger, er Kina i førersetet for utvikling av nye og innovative løsninger. Tiden da Kina kun var en etteraper som laget billige kopier av produkter fra vesten, er definitivt over.</p>
<p>Nå vil Kina bli supermakt på kunstig intelligens. Kinesiske myndigheter investerer <a href="https://www.ft.com/content/856753d6-8d31-11e7-a352-e46f43c5825d" target="_blank" rel="noopener noreferrer">hundretalls milliarder kroner</a> i utviklingen av kunstig intelligens og målet er å bli verdensledende på dette området innen 2030. Med seg på laget har de BAT-selskapene.</p>
<p>For å utvikle kunstig intelligens er man avhengig tilgang til mye data. Data, som i mange tilfeller er personopplysninger, er drivstoffet som gjør at systemer kan lære og blir intelligente. Her har Kina en stor fordel i kappløpet om å utvikle verdens beste kunstige intelligens.</p>
<p>Med sine 1,4 milliarder innbyggere og omfattende dataregistre, har Kina tilgang til enorme datamengder. I tillegg har landet den fordelen at det er <a href="https://www.technologyreview.com/s/609038/chinas-ai-awakening/" target="_blank" rel="noopener noreferrer">få restriksjoner</a> knyttet til hvordan data kan utnyttes. Myndigheter og kommersielle virksomheter kan derfor utvikle kunstig intelligens uten de samme begrensningene som personvernlovgivningen setter i Europa.</p>
<p>I Europa kan for eksempel myndigheter og selskaper ikke uten videre kan bruke data de har samlet inn fra oss til andre og nye formål vi ikke kjenner til. De må også begrense innsamlingen av opplysninger til det som er strengt nødvendig. Disse prinsippene skal gi oss kontroll over våre egne opplysninger og utviklingen av kunstig intelligens må finne sted innenfor disse rammene.</p>
<p>Takket være enorme databaser med bilder av befolkningen, er Kina verdensledende på utvikling av ansiktsgjenkjenningsteknologi. Kina har installert det mest omfattende kameraovervåkningssystemet i verden. 150 millioner kameraer er utplassert og innen fire år skal 400 millioner nye kameraer monteres opp. I byen Guiyang har kameraovervåkningssystemet samlet inn bilder av alle byens 3,4 millioner innbyggere og koblet dem til den enkeltes ID-nummer, <a href="http://www.bbc.com/news/av/world-asia-china-42248056/in-your-face-china-s-all-seeing-state" target="_blank" rel="noopener noreferrer">ifølge BBC</a>.</p>
<p>Ansiktsgjenkjenning brukes allerede av banker, restauranter og til og med på offentlige toaletter i Kina for å fastslå folks identitet. Det er likevel politi- og sikkerhetsmyndighetene som er mest ivrige etter å ta i bruk teknologien. Det nasjonale kameraovervåkningssystemet er utrustet med ansiktsgjenkjenningsteknologi, og kan i tillegg fastslå kjønn, alder og etnisitet. BBC-journalist John Sudworth fikk tillatelse til å teste ut systemet i Guiyang. Basert på et bilde av ham som han sendte til politiet i forkant av et besøk i byen, tok det kun syv minutter fra Sudworth gitt ut på gaten i Guiyang, til ansiktsgjenkjenningssystemet hadde lokalisert ham og politiet kunne «anholde» ham. Siste nytt er at politiet har utvidet sitt overvåkningsarsenal med briller med ansiktsgjenkjenningsteknologi. Med <a href="https://www.wsj.com/articles/chinese-police-go-robocop-with-facial-recognition-glasses-1518004353?mod=e2fbd" target="_blank" rel="noopener noreferrer">disse brillene</a> på kan politiet pågripe suspekte individer enda mer effektivt.</p>
<p>Den kunstig intelligente fremtiden er ikke bare dystopisk. Teknologien vil også løse mange viktige samfunnsoppgaver fremover. Det er derfor avgjørende at Norge og Europa for øvrig ikke blir sinker på dette området. Utviklingen vi ser i Kina berører oss derfor, både som utviklere og brukere av teknologien.</p>
<p>Kunstig intelligens kan selges som programvare på det globale markedet. Google og IBM tilbyr sine kunstig intelligens-løsninger til private og offentlige aktører over hele verden. Om noen år kan den beste kunstige intelligensen i verden være utviklet av et kinesisk selskap. Når denne programvaren tilbys på verdensmarkedet, vil det da være OK for et norsk sykehus eller bank å velge denne? Spørsmålet er om vi fremover må stille etiske krav til den kunstige intelligensen vi tilbys på samme måte som vi stiller etiske krav til hvordan andre forbruksvarer er fremstilt og produsert, som for eksempel matvarer og klær.</p>
<p>For å holde tritt med utviklingen av kunstig intelligens i Kina, kan det bli fristende for europeiske virksomheter å flytte produksjonsmiljøene som jobber med kunstig intelligens dit. Vi har allerede sett de første eksemplene på dette. Det britiske teknologiselskapet Medopad <a href="https://www.forbes.com/sites/parmyolson/2018/02/06/startup-china-population-medopad-tencent-ai/#762f3fca3a5e" target="_blank" rel="noopener noreferrer">flyttet utviklingen</a> av sin kunstig intelligens-baserte helseapplikasjon til Kina. I Storbritannia hadde de ikke tilgang til store nok datamengder for å kunne trene opp algoritmene sine. Ved å samarbeide med Tencent, Kinas ledende sosiale nettsamfunn, fikk selskapet tilgang til brukerdata i en helt annen målestokk enn hjemme i Storbritannia. Nylig opprettet også <a href="http://nordic.businessinsider.com/google-is-opening-a-new-ai-research-centre-in-china-2017-12?r=US&amp;IR=T" target="_blank" rel="noopener noreferrer">Google en kunstig intelligens-avdeling</a> i Kina.</p>
<p>Samtidig som kinesiske myndigheter utvikler og bruker kunstig intelligens på autoritære måter, er det tegn som tyder på at de kinesiske teknologigigantene ser nødvendigheten av å sette personvern på dagsordenen. Teknologiselskapene ønsker å ekspandere vestover på jakt etter mer brukerdata som de kan bruke i utviklingen av kunstig intelligens. Skal de levere tjenester som har tillit i de vestlige markedene, må de bygge løsninger som ivaretar grunnleggende personvernhensyn. Det er imidlertid mer tvilsomt om kinesiske myndigheter vil ta slike hensyn i sitt arbeid med å realisere ambisjonen om å bli verdensledende innen kunstig intelligens.</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2018/03/23/autoritaer-intelligens/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Kunstig intelligens til å stole på?</title>
    <link>https://www.personvernbloggen.no/2018/01/13/kunstig-intelligens-til-a-stole-pa/</link>
    <comments>https://www.personvernbloggen.no/2018/01/13/kunstig-intelligens-til-a-stole-pa/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2018/10/Kari-Laumann_avatar_1539256187-200x200.jpg</avatar>
    <pubDate>Sat, 13 Jan 2018 19:41:21 +0000</pubDate>
    <dc:creator><![CDATA[Kari Laumann]]></dc:creator>
    		<category><![CDATA[Teknologi]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[EUs personvernforordning]]></category>
		<category><![CDATA[GDPR]]></category>
		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[personvern]]></category>
		<category><![CDATA[personvernforordning]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=2425</guid>
    <description><![CDATA[Kunstig intelligens er på full fart inn i alle sektorer. Virksomheter som vil ta i bruk ny teknologi må sørge for personvernvennlige løsninger fra dag en. «Det er den draumen me ber på, at noko vidunderlig skal skje.» Ordene fra lyrikeren Olav H. Hauge oppsummerer kanskje de store forhåpningene vi har til kunstig intelligens. Allerede [&#8230;]]]></description>
        <content:encoded><![CDATA[<p><strong>Kunstig intelligens er på full fart inn i alle sektorer. Virksomheter som vil ta i bruk ny teknologi må sørge for personvernvennlige løsninger fra dag en. </strong><img loading="lazy" decoding="async" class="size-medium wp-image-2426 alignright" src="https://www.personvernbloggen.no/wp-content/uploads/2018/01/Rapportforsiden-216x300.jpg" alt="" width="216" height="300" /></p>
<p>«Det er den draumen me ber på, at noko vidunderlig skal skje.» Ordene fra lyrikeren Olav H. Hauge oppsummerer kanskje de store forhåpningene vi har til kunstig intelligens. Allerede i dag kan algoritmer gjenkjenne ansikter eller treffe beslutninger basert på enorme mengder data i løpet av et sekund. Teknologien har potensial til å revolusjonere sektorer som helse og finans.</p>
<p>Alt som er teknisk mulig er ikke alltid til det beste – og det er heller ikke alltid tillatt.</p>
<p><strong>Skjeve algoritmer<br />
</strong>Domstolene i noen av statene i USA har tatt i bruk maskinlæring i et system for utmåling av straff og kausjonsbetingelser. Dobbelt så mange afroamerikanere som hvite ble feilaktig ansett å ha høy risiko for å begå nye lovbrudd.</p>
<p>Vi er bare i startgropen på noe som vil ha en betydelig effekt på samfunnet. Derfor er det viktig at vi tar diskusjonen nå – hvilke rammer trenger vi for å kunne realisere mulighetene i kunstig intelligens på en oversiktlig, trygg og rettferdig måte?</p>
<p><strong>Svarte bokser og dype nett<br />
</strong>En enkel og forståelig algoritme for å kjenne igjen et ansikt kan være å kun se på om håret er lyst eller mørkt. Da er det én regel som styrer ansiktsgjenkjenningen.</p>
<p>Såkalte dype nett er den nyeste utviklingen og selskaper som Google og Facebook ligger helt i front. Dype nett kan ha millioner av parametre, som hver for seg beskriver en enkel sammenheng. Millioner av slike enkle biter gir modeller som er komplekse og presise, men som også kan være vanskelige å forstå selv for dem som har laget dem – såkalte svarte bokser.</p>
<p><strong>Algoritmene kan ikke gjøre som de vil<br />
</strong>De nye personvernreglene fra EU (GDPR) som trer i kraft i mai stiller større krav til dem som behandler personopplysninger og setter grenser for bruk av teknologi. Sentralt for bruk av kunstig intelligens i de nye reglene er dataminimering, rettferdig behandling og ikke minst gjennomsiktighet.</p>
<p>Brukeren har rett til å få grunnleggende informasjon om behandlingen. Ved en helautomatisert avgjørelse med betydelig konsekvens for den registrerte kan vedkommende også ha rett til en forklaring på hvordan avgjørelsen er tatt. Å ikke følge reglene kan gi bøter eller pålegg om å endre praksis eller slutte å behandle personopplysninger.</p>
<p><strong>Innsyn i algoritmene er teknisk mulig<br />
</strong>Vi har den siste tiden sett flere eksempler på utprøving av tekniske løsninger som gjør det mulig å se inn i algoritmene uten å avsløre mer enn den registrerte har krav på å få vite. En algoritme henter ut en forståelig forklaring på hvordan algoritmen har vurdert akkurat dine data. Slik metodikk for å se inn i algoritmer uten å kjenne dem i detalj – en slags kunstig intelligens for å forklare den kunstige intelligensen – forskes det aktivt på i dag.</p>
<p><strong>Videre utvikling er avhengig av folks tillit<br />
</strong>En bærekraftig utvikling av personaliserte tjenester forutsetter at folk er villige til å dele opplysningene sine og at de stoler på at opplysningene deres blir ivaretatt på en ansvarlig måte. Hvis din virksomhet vil ta i bruk kunstig intelligens bør du først vurdere mulige personvernkonsekvenser, ha gode systemer for å ta vare på de registrertes rettigheter og teste løsningene jevnlig for å unngå innebygd, urimelig forskjellsbehandling. Det kan dessuten være at du må velge mellom en modell som gir best mulig resultater og en modell det også er mulig å forklare.</p>
<p>Til slutt: Det offentlige må gå foran med etiske og personvernvennlige løsninger og det bør forskes mer på løsninger som sikrer personvernvennlig kunstig intelligens og gjør det lettere å følge reglene. Dette kan også bli en konkurransefordel for norske virksomheter.</p>
<p><em>Denne teksten ble trykket som kronikk i Dagens Næringsliv sin teknologispalte fredag 12. januar med Anders Løland fra Norsk Regnesentral og Bjørn Erik Thon fra Datatilsynet som medforfattere i tillegg til meg selv.</em> Samme dag ble <a href="https://www.datatilsynet.no/om-personvern/rapporter-og-utredninger/kunstig-intelligens/">Datatilsynets rapport om personvern og kunstig intelligens lansert, les mer om den her. </a></p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2018/01/13/kunstig-intelligens-til-a-stole-pa/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Tanker om framtidas helsevesen</title>
    <link>https://www.personvernbloggen.no/2017/12/07/tanker-om-framtidas-helsevesen/</link>
    <comments>https://www.personvernbloggen.no/2017/12/07/tanker-om-framtidas-helsevesen/#respond</comments>
    <avatar>http://www.personvernbloggen.no/wp-content/uploads/2015/07/Bjørn-Erik-Thon_avatar_1436432631-200x200.jpg</avatar>
    <pubDate>Thu, 07 Dec 2017 16:40:52 +0000</pubDate>
    <dc:creator><![CDATA[Bjørn Erik Thon]]></dc:creator>
    		<category><![CDATA[Helse]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[bulgaria]]></category>
		<category><![CDATA[helse sør-øst]]></category>
		<category><![CDATA[helseplattformer]]></category>
		<category><![CDATA[kjernejounal]]></category>
		<category><![CDATA[kommunal pasientregister]]></category>
		<category><![CDATA[persontilpasset medisin]]></category>
		<category><![CDATA[personvernforordningen]]></category>
		<category><![CDATA[plattformer]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=2392</guid>
    <description><![CDATA[Dette innlegget er basert på et innlegg jeg holdt på Normkonferansen, fredag 1. desember 2017, og er derfor skrevet i lett muntlig stil For noen uker siden stod det en artikkel i Aftenposten om at kjøpesentrene var i ferd med å forsvinne i USA. Forklaringen var enkel: Folk handler på nettet og får varene levert [&#8230;]]]></description>
        <content:encoded><![CDATA[<p><em>Dette innlegget er basert på et innlegg jeg holdt på Normkonferansen, fredag 1. desember 2017, og er derfor skrevet i lett muntlig stil</em></p>
<p>For noen uker siden stod det en artikkel i Aftenposten om at kjøpesentrene var i ferd med å forsvinne i USA. Forklaringen var enkel: Folk handler på nettet og får varene levert på døra. Og som de skrev i artikkelen: Tenk hva dette betyr når et sted der folk har flørtet, datet, hatt sin første jobb og hengt rundt, plutselig legges ned og forsvinner. Hvilken samfunnsomveltning fører ikke det til?</p>
<p>Eller la oss ta VIPPS, en av de største app-suksessene vi har sett i Norge noen gang. Enkelte eksperter mener den vil bli borte i løpet av 3-4 år på grunn av konkurransen fra Facebook og Apple og deres betalingstjenester. VIPPS svarer med å slå seg sammen med BankID og BankAxept for å møte konkurransen. Altså et marked i enorm forandring.</p>
<p>Hvorfor trekker jeg fram dette? Fordi disse eksemplene på mange måter symboliserer den utviklingen vi vil se på flere områder i årene som kommer, også på områder av langt større betydning enn et kjøpesenter, som i helsesektoren.</p>
<p>Men driverne i endringene som treffer kjøpesentrene og kanskje Vipps, og som også treffer helsektoren, er mange av de samme. Det handler om følgende: Algoritmer, kunstig intelligens og automatiserte avgjørelser. Kombinasjonen av disse tre vil til sammen vil fase mennesket ut av mange beslutninger.</p>
<blockquote><p>Vi vil dele når vi vet at dataene våre vil bli behandlet skikkelig. Vi vil dele når vi <em>får noe igjen</em> for å dele.</p></blockquote>
<p>Mange nye tjenester vil ( og er allerede) bygd på plattformer. I helsesektoren har vi velferdsteknologiplattformer, helseplattformer og prosjektet med en innbygger/en journal, for å nevne noen. Vi har fått nye registre, som Nasjonal Kjernejournal og Kommunalt Pasientregister, og vi har fått e-resept. Dissereformene skyldes flere ting, men viktig er blant annet å sikre bedre informasjonsflyt og rett informasjon til legen til rett tid. Men også å utvikle nye tjenester, nye behandlingsformer, som fordrer analyse på tvers av dagens siloer.</p>
<p>Her i Oslo har finansråd Robert Steen sagt det slik: <em>Hvis du lover å ikke forlange at vi skal lansere i morgen, så kan jeg røpe at vi skal lage en tjenesteplattform som følger innbyggerne fra fødsel til død. For å få til dette må vi ha mer samordning i offentlig sektor knyttet til digitalisering. </em></p>
<p>Dette er interessante perspektiver fra en sentral politiker i landets største by.</p>
<p>De nye løsningen presentert over, kan også bety flere muligheter til selv å bestemme hva vi vil dele, til å se hva som er registrert om oss, og vi kan selv gå inn å korrigere data som er misvisende eller feil. En absolutt forutsetning for å få aksept når nye registre eller plattformer lanseres, er at sektoren har befolkningens tillit. Jeg tror vi vil dele når vi har tillit. Vi vil dele når vi vet at dataene våre vil bli behandlet skikkelig. Vi vil dele når vi <em>får noe igjen</em> for å dele. Og særlig når det gjelder det aller mest sensitive vi har, nemlig våre egne helsedata. Derfor undres jeg over at det iblant stilles opp en motsetning mellom det jeg nevnte over, nemlig å ha tilgjengelig data når det trengs, og å behandle data trygt, skikkelig, i full åpenhet og med selv- eller medbestemmelse fra borgeren. Datatilsynet har i hvert fall ingen interesse av å konstruere en konflikt mellom disse to svært viktige hensynene.</p>
<p>Et samlebegrep på denne utviklingen er big data; grenseløs kunnskapsdeling og analyser mennesket ikke har mulighet til å selv å utføre. Og midt i dette, en stadig sterkere stemmer som sier at <em>alle skal med</em>. Jeg tenker her blant annet om persontilpasset medisin, som jeg skal si litt om nedenfor.</p>
<p>Og dette skjer i en sektor med en del kjennetegn, i hvert fall dersom vi ser på helse i et bredt samfunnsperspektiv. Og det er viktig, for skal man gi et individuelt helse- eller behandlingstilbud, er det ikke nok å vite hva slags sykdom en person har, man må vite hvordan personen lever livet sitt, kanskje noe om økonomien hennes, og dagligdagse vaner og rutiner.  Dette betyr at framtidas helsevesen vil trenge mye mer informasjon enn det som er tilfelle i dag. Og den vil øse av mange ulike kilder. Våre private helsedata, samlet inn gjennom apper, private helseundersøkelser (kanskje utenlands) eller gentester, vil bli «slått sammen» med det offentlige helsevesenets data. Derfor er eksemplet med kjøpesentre og VIPPS så interessante også i relasjon til helsesektoren. Ting endrer seg ekstremt raskt, og kanskje vi om ti eller femten år ikke trenger strukturerte helseregistre, fordi de ustrukturerte dataene som ligger om oss alle rundt på nett vil gi bedre kunnskap.K</p>
<blockquote><p>Kanskje vi om ti eller femten år ikke trenger strukturerte helseregistre, fordi de ustrukturerte dataene som ligger om oss alle rundt på nett vil gi bedre kunnskap.</p></blockquote>
<p>Og den sektoren som går inn i denne utviklingsfasen har noen kjennetegn:</p>
<ul>
<li>Betydelige mengder data, i stat, kommune, i direktorater, i helseforetak og hos politiet, for å nevne noe</li>
<li>Data av ofte sensitiv eller følsom karakter, som helse, spesielle behov ( i skole eller barnehage), inntekt, arbeidsforhold, trygdeytelser og sosialhjelp</li>
<li>Ofte liten grad av selvbestemmelse hos borgeren, da behandlingen som oftest er lovbestemt</li>
</ul>
<p>Norsk offentlig sektor generelt, og helsetjenesten spesielt, et derfor langt på vei et nasjonalt Google, men med sensitive opplysninger og liten selvbestemmelse. Bruken er ofte politisk styrt av mange gode formål; bedre helsetilbud, en lengre liv, et friskere liv. Og selvsagt, mange av disse opplysningene vil lages i skyløsninger i andre land enn Norge.</p>
<blockquote><p>Norsk offentlig sektor generelt, og helsetjenesten spesielt, et derfor langt på vei et nasjonalt Google, men med sensitive opplysninger og liten selvbestemmelse.</p></blockquote>
<p>For ikke lenge siden varslet vi vedtak med overtredelsesgebyr mot ni helseforetak i Helse SØ. Varslet er på 32 sider, og det blir alt for omfattende å gå inn på alle sider av denne saken. Men jeg vil nevnte noen hovedpunkter: Det gjaldt en kontrakt på 6,9 milliarder kroner, ni helseforetak og i et område der det bor 2,8 millioner mennesker. Før man setter ut en slik kontrakt, må man gjøre en risikovurdering. Kun da har man oversikt over hvilke konsekvenser tjenesteutsettingen kan ha for sikkerhet og personvern til innbyggerne. En slik konsekvensutredning må omfatte <em>om</em>, og <em>hvor</em> en tjenesteutsetting skal skje. Dersom man vurderer å tjenesteutsette til Bulgaria, må man utrede konsekvensen av å velge Bulgaria. I tillegg må man drive sikkerhetsledelse; dvs at de som bærer ansvar for beslutningen, også faktiske treffer den, og følger opp den beslutningen som er fattet.</p>
<p>I denne saken mente vi dette ikke har vært tilfelle. Vi mener det ikke ble gjort en god nok risikovurdering før kontrakten ble inngått og før Bulgaria ble valgt. Dessuten mener vi at selve helseforetaksmodellene bidrar til å pulverisere ansvar. Dette kan oppsummeres slik:</p>
<p>&#8211; Hvert foretak/sykehus er behandlingsansvarlig, men beslutningen om å tjenesteutsette ble ikke besluttet av hver enkelt, men langt på vei av Helse SØ, som altså ikke er ansvarlig for behandling av pasientdata.</p>
<p>&#8211; Og utredningen og langt på vei også beslutningsgrunnlaget om å sette ut kontrakten ble tatt av Sykehuspartner, som er databehandler.</p>
<p>Så hvor står vi nå etter dette?</p>
<blockquote><p>Det skjer veldig mye bra i norsk helsevesen.</p></blockquote>
<p>Jeg skal ikke være noen doctor Doom. Det skjer veldig mye bra i norsk helsevesen. Moderniseringsprogrammene vil gi bedre tjenester, lavere kostnader (i hvert fall på sikt), bedre ressursstyring og vi vil sikkert kunne bo i hjemmene våre lengre.</p>
<p>Men utfordringene står i kø, og vi må stille noen helt grunnleggende spørsmål:</p>
<p>&#8211; Hvem utvikler algoritmen som ligger til grunn for avgjørelsen? For eksempel på hva slags velferdsteknologisk tilbud, eller en medisin eller behandlingsform som passer til akkurat meg.</p>
<p>&#8211; Hvordan skal jeg, som borger og bruker, vite at avgjørelsen er rettferdig og at kriteriene den er bygd på ikke er skjeve?</p>
<p>&#8211; Hvordan skal borgerne informeres om hvordan avgjørelsen er truffet, og hvilke opplysninger som inngår i beslutningsgrunnlaget?</p>
<p>&#8211; Hvordan skal vi få lov til å si nei, eller reservere oss, dersom vi ikke ønsker å delta i det store samfunnseksperimentet vi nå ser starten av.</p>
<p>&#8211; Og hvordan skal vi være sikre på at data oppbevares trygt? At ikke andre enn de som har et legitimt behov kan se dataene mine? At det lagres i trygge land. Og, vil jeg si: At ikke økonomi overstyrer personvern og sikkerhet?</p>
<p>&#8211; Og hvordan skal helsesektoren vi, i en verden der offentlige og private helsedata i stadig større grad blir «samlet», håndtere disse dataene, fra så mange ulike kilder?</p>
<p>Jg må her understreke nok en gang, at en absolutt forutsetning for at de store prosjektene vi nå ser i helsesektoren skal lykkes, er at vi har tillitt. Jeg tørr påstå at ingen sektor i Norge har større behov for tillitt enn helsesektoren. Derfor skal vi være veldig glad for at det nå kommer en ny personvernforordning, der ansvaret enda tydeligere enn i dag plasserer på sektorens egne vurderinger.</p>
<blockquote><p>Økonomi må ikke overstyre personvern og sikkerhet</p></blockquote>
<p>Og til slutt noen ord om persontilpasset medisin. Den utviklingen vi nå går inn i, er av mange blitt beskrevet som en revolusjon, bl.a. ble dette uttrykket brukt av flere høringsinstanser da strategien om persontilpasset medisin var på høring. Men revolusjoner er skumle greier. Det blir beskrevet som endringer som skjer i løpet av kort tidspunkt, ofte med endring av grunnleggende samfunnsstrukturer. Og når man skal bruke genene våre, selve koden til livet vårt, som en viktig innsatsfaktor i denne revolusjon, må vi være trygge på hva vi gjør.</p>
<p>Jeg mener derfor det er viktig at vi stiller oss minst følgende spørsmål:</p>
<p>&#8211; Hvilke prinsipper skal vi bygge utviklingen på?</p>
<p>&#8211; Hvilke sikkerhetsmekanisme skal vi etablere?</p>
<p>&#8211; Hvordan skal vi sørge for at ting kan reverseres dersom utviklingen tar feil retning?</p>
<p>&#8211; Hvordan skal vi sørge for at lovverket blir fulgt?</p>
<p>&#8211; Skal vi gjøre alt som et teknisk, eller genetisk mulig.</p>
<blockquote><p>Persontilpasset medisin handler ikke om proteiner og enzymer. Det handler om deg og meg; om oss</p></blockquote>
<p>Vi står her dessuten overfor en betydelig pedagogisk utfordring. Hvordan forklare noe ekstremt komplisert på en måte folk forstår? For dette handler ikke om proteiner og enzymer. Det handler om deg og meg, om oss. Vi må derfor få denne debatten ut av fagmiljøene, og inn i brede samfunnslag, inn i politikken. Da kan vi få en fredelig og fin revolusjon der folket er med, ikke mot. Og vi må begynne med et bredt utvalg, av genetikere, filosofer, jurister og andre kloke mennesker, som skal peke ut en vei videre.</p>
<p>I lys av dette, er det veldig rart å høre at enkelte fortsatt mener den kommende forordningen ikke vil føre til veldig store endringer for helsesektoren. Jeg har nå forsøkt å forklare hvilken utvikling vi går inn i, fra utkontraktering, via big data, algoritmer og et samtykke-institutt under press, til persontilpasset medisin. Det nye personvernregelverket er basert på en risikobasert tilnærming: Jo mer data, jo mer sensitivt data, jo mer dataanalyse, jo større sammensmeltning av data, jo større reformiver; jo flere plikter, jo grundigere vurderinger, og jo større endringer.</p>
<p>La meg derfor være veldig tydelig: Helsesektoren er blant de sektorene som blir mest påvirket av det nye regelverket.</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2017/12/07/tanker-om-framtidas-helsevesen/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Urettferdige algoritmer</title>
    <link>https://www.personvernbloggen.no/2017/09/06/urettferdige-algoritmer/</link>
    <comments>https://www.personvernbloggen.no/2017/09/06/urettferdige-algoritmer/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2018/01/Catharina-Nes_avatar_1514973070-200x200.jpg</avatar>
    <pubDate>Wed, 06 Sep 2017 10:57:16 +0000</pubDate>
    <dc:creator><![CDATA[Catharina Nes]]></dc:creator>
    		<category><![CDATA[Politi og justis]]></category>
		<category><![CDATA[Teknologi]]></category>
		<category><![CDATA[algoritmer]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[kunstig intelligens]]></category>
		<category><![CDATA[maskinlæring]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=2286</guid>
    <description><![CDATA[Heller ikke intelligente maskiner er fri for menneskelige svakheter. (Dette innlegget sto på trykk i Dagens Næringsliv  1. september 2017) I rettssaler verden over står statuen av en kvinne med bind for øynene og en vekt og et sverd i hendene: «Justicia», rettferdigheten personifisert. Bindet over øynene symboliserer prinsippet om at rettferdigheten skal være blind. Loven skal [&#8230;]]]></description>
        <content:encoded><![CDATA[<p><em>Heller ikke intelligente maskiner er fri for menneskelige svakheter. (Dette innlegget sto på trykk i Dagens Næringsliv  1. september 2017)</em></p>
<p>I rettssaler verden over står statuen av en kvinne med bind for øynene og en vekt og et sverd i hendene: «Justicia», rettferdigheten personifisert. Bindet over øynene symboliserer prinsippet om at rettferdigheten skal være blind. Loven skal anvendes uten hensyn til annet enn det som, i rettferdighetens navn, taler for og imot.</p>
<p>Forskere ved Ben-Gurion-universitetet i Israel gjennomgikk i 2011 <a href="https://www8.gsb.columbia.edu/newsroom/newsn/1659/how-extraneous-factors-impact-judicial-decisionmaking">domsavgjørelsene til israelske dommere</a> som behandlet permisjonssøknader til fengselsinnsatte. Etter å ha studert 1000 domsavgjørelser, oppdaget de at det som i størst grad avgjorde hvorvidt dommerne innvilget permisjonssøknaden eller ikke, var hvor lang tid det var siden de hadde spist lunsj. Jo lenger unna spisepausen, desto mindre sannsynlig var det at dommeren innvilget permisjon. Funnet er kanskje ikke så oppsiktsvekkende. Mennesket kan ikke fri seg fra alle sine svakheter. Vi er ikke maskiner.</p>
<p>I dag overlater vi flere og flere avgjørelser til maskiner. Innsamling og analyse av enorme datamengder gjør det mulig å utvikle automatiserte beslutningssystemer basert på kunstig intelligens. Slike systemer kan avgjøre om vi får lån til å kjøpe nytt hus, hvilke trygdeytelser vi har krav på og hvor sannsynlig det er at vi har snytt på skatten. Automatisering av avgjørelser vil spare private og offentlige virksomheter for enorme summer.</p>
<p>Spørsmålet er om maskinene vil ta bedre avgjørelser enn mennesker. Det er uten tvil mulig å bygge algoritmer som overgår mennesket i å ta beslutninger. Likevel er det svært viktig å være bevisst at heller ikke algoritmer kan fri seg fra menneskets svakheter. Algoritmer er ikke mer objektive enn menneskene som lager dem. Våre fordommer kan overføres til maskinene.</p>
<p>Nylig avdekket en gruppe <a href="https://www.wired.com/story/machines-taught-by-photos-learn-a-sexist-view-of-women/">forskere ved University of Virginia</a> at et bildegjenkjenningsprogram de var i ferd med å utvikle, automatisk koblet bilder av kjøkken med kvinner og ikke med menn. Dette hadde sammenheng med at bildedatabasen som algoritmen lærte fra, inneholdt flere bilder der kvinner var avbildet på et kjøkken enn slike bilder med menn. Menn var i større grad enn kvinner avbildet med gevær og sportsutstyr. Denne skjevheten i datamaterialet fikk konsekvenser for algoritmens læring til algoritmen. Bildegjenkjenningsalgortimen kjente ikke bare igjen mønsteret, den bidro til å forsterkeskjevhetene som lå i databasen. Den kategoriserte automatisk alle personer som var avbildet på kjøkken som kvinner, selv når de var menn.</p>
<p>Slike skjevheter kan få alvorlige konsekvenser hvis de forekommer i automatiserte beslutningssystemer. I USA har de utviklet et automatisert system for utmåling av straff og kausjonsbetingelser. Systemet brukes til å forutsi risikoen for at domfelte vil begå ny kriminalitet. Det <a href="https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing">amerikanske tidsskriftet ProPublica</a> har sett nærmere på avgjørelsene systemet har fattet og konkluderte med at det diskriminerer afroamerikanere. Antallet afroamerikanere som feilaktig blir flagget med høyrisiko for å begå nye lovbrudd, er dobbelt så høyt som for hvite. Selskapet som har utviklet systemet, er uenig i ProPublicas konklusjon. Det ønsker imidlertid ikke å gi innsyn i hvilke kriterier og beregninger som inngår i algoritmen. Det er derfor ikke mulig hverken for de domfelte eller offentligheten å få klarhet i hvorfor avgjørelsene blir som de blir.</p>
<p>Når vi overlater stadige mer til maskinene, er det viktig å spørre seg hvordan vi skal ivareta tilliten til beslutningene som fattes. En utfordring ved mange av systemene som utvikles i dag, er at de er så komplekse at mennesker ikke kan forklare hvordan de kom frem til resultatet. Hvis de som eier systemet, ikke kan forklare hvordan det virker, hvordan skal vi da ha tillit til at avgjørelsene er rettferdige?</p>
<p>Neste år får vi nytt personvernregelverk. Dette regelverket har bestemmelser som kan bidra til å øke bevisstheten rundt hvordan algoritmestyrte beslutningssystemer må lages for å fungere mest mulig etterrettelig og rettferdig. For eksempel individets rett til forklaring og til å motsette seg automatiserte avgjørelser. Fra mai 2018 må virksomheter som benytter komplekse datasystemer, kunne forklare på en brukervennlig måte hvordan algoritmen kom frem til beslutningen.</p>
<p>De nye forpliktelsene i personvernforordningen inspirerer allerede forskningsmiljøer verden over til å utvikle mer åpen og gjennomsiktig kunstig intelligens. Dette er viktig forskning. Blind tiltro til algoritmene og beslutningene de fatter, kan i verste fall forsterke ulikheter og true rettssikkerheten.</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2017/09/06/urettferdige-algoritmer/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Beacons en ny utfordring for personvernet</title>
    <link>https://www.personvernbloggen.no/2015/07/22/beacons-en-ny-utfordring-for-personvernet/</link>
    <comments>https://www.personvernbloggen.no/2015/07/22/beacons-en-ny-utfordring-for-personvernet/#respond</comments>
    <avatar>http://www.personvernbloggen.no/wp-content/uploads/2015/04/Atle-Årnes_avatar_1430207306.jpg</avatar>
    <pubDate>Wed, 22 Jul 2015 10:30:42 +0000</pubDate>
    <dc:creator><![CDATA[Atle Årnes]]></dc:creator>
    		<category><![CDATA[Informasjonssikkerhet]]></category>
		<category><![CDATA[Internasjonalt]]></category>
		<category><![CDATA[Teknologi]]></category>
		<category><![CDATA[Apper]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[Cookies]]></category>
		<category><![CDATA[gps]]></category>
		<category><![CDATA[Overvåking]]></category>
		<category><![CDATA[Samtykke]]></category>
		<category><![CDATA[Sporing]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=1676</guid>
    <description><![CDATA[Dette innlegget i litt forkortet versjon sto på trykk i Dagens næringsliv den 19. juli 2015 Vi har over tid blitt vant til at de nettsidene vi besøker, slipper til internettaktører som sanker inn informasjon om vår nettaktivitet for å tjene penger på den. Internettet er under omfattende kontroll av disse internasjonale aktørene som har [&#8230;]]]></description>
        <content:encoded><![CDATA[<p><em>Dette innlegget i litt forkortet versjon sto på trykk i Dagens næringsliv den 19. juli 2015</em></p>
<p>Vi har over tid blitt vant til at de nettsidene vi besøker, slipper til internettaktører som sanker inn informasjon om vår nettaktivitet for å tjene penger på den. Internettet er under omfattende kontroll av disse internasjonale aktørene som har sluppet inn på nettsidene til avisene, butikkjedene, statlige etater og kommuner.</p>
<p>Disse aktørene ønsker også <a href="https://www.personvernbloggen.no/wp-content/uploads/2015/07/folk_gate.jpg"><img loading="lazy" decoding="async" class="alignright size-full wp-image-1677" src="https://www.personvernbloggen.no/wp-content/uploads/2015/07/folk_gate.jpg" alt="folk_gate" width="205" height="193" /></a>å vite hva vi holder på med der ute i lokalbutikken, på kjøpesenteret, på flyplassen eller andre steder. Et sentralt verktøy er å vite nøyaktig hvor du er til enhver tid. Lokalisering kan gjøres med mobilen via GPS, men ulempen med denne løsningen er at den virker best utendørs og ikke inne i butikker. Wifi benyttes for enda bedre å kunne lokalisere oss innendørs, men også dette er for unøyaktig. Nesten like unøyaktig er avlesing av din mobils Bluetooth-identitet. Problemet med disse løsningene ligger også i at avlesing av våre mobiler krever mye «dyrt» og aktivt utstyr, og at slik avlesing krever forhåndstillatelse fra den enkelte av oss.</p>
<p>Det er her man nå har funnet en ny løsning ved å plassere ut små sendere tett i tett hvor folk beveger seg. Disse senderne kalles beacons eller nettvarder. De er billige og fungerer med å sende ut sin egen identitet. De store mobil- og operativsystemleverandørene har lagt til rette for at våre mobiler leser av signaler fra slike beacons.</p>
<p>Du laster nå ned apper som leser av beacons som er plassert ut i butikken. Nøyaktig kunnskap om hvor du er og hvilke varer du ser på kan gi grunnlag for å gi deg kjøpsanbefalinger og nyttig informasjon. Andre ser for seg at man kan bli geleidet rundt på togstasjoner, flyplasser og kjøpesentre etter å ha lastet ned togstasjon-app, flyplass-app eller kjøpesenter-app. Dermed snakker vi om en meget tett utplassering av slike beacons, og tettere utplassering vil gi mer nøyaktig posisjon.</p>
<p>Slike isolerte løsninger, hvor togstasjon-appen bare leser av togstasjonens beacons og ingen andres, var slik man så for seg bruk av beacons i utgangspunktet. Dessverre ser vi nå at det ryddige utgangspunktet for bruk av beacons er i ferd med å forsvinne allerede før teknologien er tatt i bruk. Vi ser at beaconaktørene legger til rette for en bredere bruk enn bare for én butikk eller én togstasjon.</p>
<p>Det er allerede etablert beacons-registre for allmenn bruk, som gir informasjon om de enkelte beacons.</p>
<p>Vi ser at app-leverandører ikke begrenser seg til å lese av kun egne beacons, men også andres. Apper du allerede benytter på mobilen endres til å ta i bruk beacons.</p>
<p>Mobilleverandører og leverandører av mobilens operativsystem etablerer beaconavlesing og innrapportering av beacons med lokasjon som standard løsning.</p>
<p>Vi ser dermed allerede nå at vi er kommet i en situasjon, med beacons, som er den samme som vi opplevde med ordinært internett. Med dette vil det fremover være umulig å bevege seg med sin mobil utenfor hjemmet, uten at man selv rapporterer lokasjon og sine interesser til ulike aktører. Din aktivitet og dine interesser vil, uten at du aner det, bli underlagt budgivning og kjøpslåing mellom store aktører som vil by på hvilken mulighet du har for å bruke penger og foreta et kjøp av akkurat deres produkt.</p>
<p>Vi ser at beaconløsningen kan bli pushet frem av gode allmennyttige formål. Dessverre er det ikke ofte betalingsvilje for slike formål. Det er først når reklamen og de store betalingsvillige aktørene kommer inn og får tilgang til personopplysningene dine, at det blir fart på sakene. Vi har lenge hørt at uten reklame og «cookies» på internett ville internett være dyrt eller dødt. Vi vil nok høre dette om beacons også, at denne teknologien vil være nødvendig for å overleve i konkurransen med internetthandelen. Dette er en side av saken og er påstander som blir holdt frem av sterke interessenter innen reklameindustri og av store internettaktører. Det blir alltid litt puslete å vaie personvernflagget overfor disse aktørene.</p>
<p>Vil det da være mulig å innføre den nye teknologien med beacons uten personvernulemper? Det finnes allerede mulighet til å beskytte de enkelte beacons slik at de bare kan avleses og brukes av den aktøren som har plassert dem ut og isolert sett bare kan leses av denne aktørens mobilapp. Det er viktig at det tenkes innebygd personvern og at brukeren selv har kontroll. Dessverre koster slike sikre løsninger mer enn løsninger uten sikkerhet.</p>
<p>Betalingsmiddelet som er i spill er våre personopplysninger. Å gi fra seg personopplysninger er åpenbart ikke like synlig som å gi fra seg kontanter. Vi vil nok se at store reklameaktører får benytte offentlige steder som gater, torg og undergrunnsstasjoner til moderne markedsføring. Det offentlige rom har fra før ikke vært blottet for reklame. Det spesielle nå er dessverre at bruk av beacons vil bringe oss til et helt nytt og langt mer utfordrende nivå.</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2015/07/22/beacons-en-ny-utfordring-for-personvernet/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Du er til salgs </title>
    <link>https://www.personvernbloggen.no/2015/05/22/du-er-til-salgs/</link>
    <comments>https://www.personvernbloggen.no/2015/05/22/du-er-til-salgs/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2018/01/Catharina-Nes_avatar_1514973070-200x200.jpg</avatar>
    <pubDate>Fri, 22 May 2015 10:53:20 +0000</pubDate>
    <dc:creator><![CDATA[Catharina Nes]]></dc:creator>
    		<category><![CDATA[Internasjonalt]]></category>
		<category><![CDATA[Sosiale medier]]></category>
		<category><![CDATA[Teknologi]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[Cookies]]></category>
		<category><![CDATA[Do Not Track]]></category>
		<category><![CDATA[Facebook]]></category>
		<category><![CDATA[nedkjølingseffekt]]></category>
		<category><![CDATA[Samtykke]]></category>
		<category><![CDATA[Sporing]]></category>

    <guid isPermaLink="false">https://www.personvernbloggen.no/?p=1618</guid>
    <description><![CDATA[Det foregår et datakappløp i markedsføringsbransjen, der den som sitter på mest informasjon om oss er vinneren. (Dette innlegget sto på trykk som kronikk i Dagens Næringsliv 13. mai 2015.) Jeg har vært på utenlandsreise og sliter med jetlag. Jeg googler «søvnproblemer». De neste dagene forfølges jeg av annonser for legemidler på norske og internasjonale nettsider. [&#8230;]]]></description>
        <content:encoded><![CDATA[<p style="text-align: justify"><strong>Det foregår et datakappløp i markedsføringsbransjen, der den som sitter på mest informasjon om oss er vinneren.</strong></p>
<p style="text-align: justify"><em>(Dette innlegget sto på trykk som kronikk i Dagens Næringsliv 13. mai 2015.)</em></p>
<p style="text-align: justify">Jeg har vært på utenlandsreise og sliter med jetlag. Jeg googler «søvnproblemer». De neste dagene forfølges jeg av annonser for legemidler på norske og internasjonale nettsider. Hvordan kan det ha seg at alle disse selskapene plutselig vet at jeg ikke får sove om natten?</p>
<p style="text-align: justify">Det pågår for tiden et datakappløp i medie- og markedsføringsbransjen. Bruk av ny teknologi og muligheten til å samle inn og analysere store datamengder er i ferd med å endre måten annonsører når sine kunder på. Bransjen er på vei bort fra tradisjonell massemarkedsføring og over til å henvende seg direkte til den enkelte. I dag får du persontilpasset reklame på nett, men om ikke lenge får du det også når du ser på tv.</p>
<p style="text-align: justify">Motoren i markedet for digital annonsering er fremveksten av annonsebørser, der kjøp og salg av annonseplasser foretas av dataprogrammer i løpet av hundredels sekunder. Den annonsøren som byr høyest på en bruker, får vise vedkommende reklame. Og den som byr høyest er gjerne den som har mest data om brukeren – og ser at brukeren har en verdifull profil. Hvis annonsebørsene er motoren, er personopplysninger drivstoffet.</p>
<p style="text-align: justify">Google og Facebook er blant vinnerne i dette markedet fordi de sitter på enormt mye data om oss. For ikke å tape annonsekampen mot disse globale kjempene bygger norske aktører opp egne plattformer for datastøttet annonsering.</p>
<p style="text-align: justify">Vi er vitne til en massive innsamling av personopplysninger. Utnyttelsen av disse til kommersielle formål setter personvernet under press.</p>
<p style="text-align: justify">Den største utfordringen er at markedet for digital annonsering er lite åpent og gjennomsiktig. De fleste av oss vet ikke at vi blir profilert. Selv om vi samtykker til noe av cookie-bruken, er det ikke mulig å ha oversikt over det <em>samlede omfanget</em> av opplysninger som samles inn om oss. På mange av nettsidene vi besøker er det ofte flere titalls ulike selskaper til stede som samler inn opplysninger om oss bak kulissene. Vi blir ikke opplyst om hvilken kunnskap som utledes om oss på bakgrunn av disse dataene, og hvilke profiler vi ender opp med å få.</p>
<p style="text-align: justify">Det er et paradoks at mens vi borgere aldri før har delt mer informasjon om oss selv, så er selskapene som utnytter disse opplysningene svært hemmelighetsfulle om sin aktivitet. Vi har fått en informasjonsasymmetri: Tusentalls selskaper vet svært mye om oss, mens vi ikke en gang vet <em>hvem</em> som vet og <em>hva</em> de vet. Dette er uheldige fordi det gjør oss sårbare for urettmessig diskriminering og manipulering. Når vi ikke vet hva som foregår er vi heller ikke i en posisjon til å ta informerte valg.</p>
<p style="text-align: justify">Hvis du føler at du mister kontroll over dine egne personopplysninger og ikke vet hvem som ser deg, kan det føre til at du begynner å legge bånd på deg selv. Du kan for eksempel unnlate å søke etter kreftmedisin eller skrive under på et opprop i frykt for at du legger igjen spor som kan blir brukt mot deg. Datatilsynet gjennomførte en spørreundersøkelse i 2013 som viste at 16 prosent har latt være å foreta enkelte søk på nett fordi de er usikre på hvordan disse opplysningene kan bli brukt senere.</p>
<p style="text-align: justify">I USA avdekkes det stadig eksempler på selskaper som sammenstiller og selger svært sensitive profiler til annonsører. For eksempel profiler som «tidlig stadium av Alzheimer» eller «spillavhengige over 50 år». I Europa har vi i dag en strengere personvernlovgivning som hindrer tilsvarende utnyttelse av personopplysninger.</p>
<p style="text-align: justify">Lagring av enorme datamengder om enkeltindivider utgjør også i seg selv en risiko. Konsekvensene ved datainnbrudd og datalekkasjer blir enda større når datamengdene er store og kan gi et rikt og avslørende bilde av enkeltpersoner.</p>
<p style="text-align: justify">Bransjen hevder at det kun er anonyme data som benyttes til profilering. Men jo mer detaljerte og nærgående profilene er, jo større er imidlertid faren for at det er mulig å reidentifisere enkeltindivider i datasettene.</p>
<p style="text-align: justify">Nytt personvernregelverk (i form av en <em>forordning)</em> er nå på trappene i EU. Skjerpet informasjonsplikt for virksomheter og styrket eiendomsrett over egne data er viktige elementer. Ett av forslagene går for eksempel ut på at det skal bli lettere for enkeltpersoner å motsette seg at dataene blir brukt til profilering. Loven vil også gi oss større rett til å kreve data slettet. Sanksjonene skjerpes betydelig, og særlig interessant blir det å se hva slags sanksjoner ulovlig reidentifisering av data blir møtt med. Vårt håp er at norske politiske myndigheter bruker all innflytelse de har til å unngå at forordningen svekkes i sluttforhandlingene som begynner etter sommeren.</p>
<p style="text-align: justify">
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2015/05/22/du-er-til-salgs/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>&#171;Ja til slark!&#187; &#8211; høydepunkter fra debatten</title>
    <link>https://www.personvernbloggen.no/2015/01/29/ja-til-slark-hoydepunkter-fra-debatten-pa-personverndagen/</link>
    <comments>https://www.personvernbloggen.no/2015/01/29/ja-til-slark-hoydepunkter-fra-debatten-pa-personverndagen/#respond</comments>
    <avatar>https://www.personvernbloggen.no/wp-content/uploads/2018/01/Catharina-Nes_avatar_1514973070-200x200.jpg</avatar>
    <pubDate>Thu, 29 Jan 2015 16:56:40 +0000</pubDate>
    <dc:creator><![CDATA[Catharina Nes]]></dc:creator>
    		<category><![CDATA[Barn og unge]]></category>
		<category><![CDATA[Teknologi]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[personvern]]></category>
		<category><![CDATA[personverndagen]]></category>

    <guid isPermaLink="false">http://www.personvernbloggen.no/?p=1479</guid>
    <description><![CDATA[I går feiret vi den internasjonale personverndagen med frokostseminar sammen med Teknologirådet og over 200 fremmøtte på Litteraturhuset i Oslo. I år som i fjor var interessen for dagen stor. Det er tydelig at personvern er et tema som engasjerer mange! Vi hadde invitert fire paneldeltakere som bidro til en viktig debatt: Kai Morten Terning, [&#8230;]]]></description>
        <content:encoded><![CDATA[<p>I går feiret vi den internasjonale personverndagen med frokostseminar sammen med Teknologirådet og over 200 fremmøtte på Litteraturhuset i Oslo. I år som i fjor var interessen <img loading="lazy" decoding="async" class="  wp-image-1481 alignright" src="https://www.personvernbloggen.no/wp-content/uploads/2015/01/overva╠èking-av-barn-211x300.jpg" alt="overva╠èking av barn" width="294" height="418" srcset="https://www.personvernbloggen.no/wp-content/uploads/2015/01/overva╠èking-av-barn-211x300.jpg 211w, https://www.personvernbloggen.no/wp-content/uploads/2015/01/overva╠èking-av-barn-722x1024.jpg 722w, https://www.personvernbloggen.no/wp-content/uploads/2015/01/overva╠èking-av-barn.jpg 1748w" sizes="(max-width: 294px) 100vw, 294px" />for dagen stor. Det er tydelig at personvern er et tema som engasjerer mange!</p>
<p>Vi hadde invitert fire paneldeltakere som bidro til en viktig debatt: Kai Morten Terning, statssekretær i Barne-, likestillings-, og inkluderingsdepartementet (FrP), Bård Vegar Solhjell, stortingsrepresentant for SV, og tidligere kunnskaps- og miljøminister, Heidi Nordby Lunde, stortingsrepresentant for Høyre, men også kjent som bloggeren Vampus og Jan Holm, administrerende direktør i Lyse Smart, blant annet kjent for sine velferdsteknologiprodukter.</p>
<p>Debatten kretset rundt problemstillinger trukket frem i <a href="http://www.datatilsynet.no/Global/04_planer_rapporter/Personvern-tilstand-trender-2015.pdf">årets personvernrapport</a>, knyttet til tingenes internett og barns rett til personvern.</p>
<h3>Individet må være i førersetet</h3>
<p><strong>Jan Holm</strong> fra Lyse Smart åpnet debatten med å fortelle hvordan selskapet er i ferd med å rulle ut smarthus-teknologi. Han fremhevet at det er forbrukeren som skal eie alle dataene som produseres når hjemmet fylles med smarte sensorer. Løsningen skal bygges slik at det kun er forbrukeren som har tilgang til den samlede oversikten over alle dataene som sendes ut fra hjemmet. Lyse skal ikke ha mulighet til å se «hele bildet». Data skal ikke selges videre til tredjeparter. Holm trakk også frem at Lyse er svært positive til den nye personvernlovgivningen som kommer i løpet av året, som vil gi like konkurransevilkår i Europa.</p>
<p><strong>Bård Vegard Solhjell </strong>startet med å si at det ofte blir laget en konflikt i politikken mellom de som er mot teknologi og de som er for personvern. Dette er feil, presiserte han. Ofte er det de som er mest opptatt av teknologi som er mest opptatt av personvern. Det som er viktig er at det er vi mennesker som har kontrollen over den teknologiske utviklingen. Den viktige debatten er hvordan vi skal innføre ny teknologi på en god måte, presiserte han. I denne debatten er ikke kommersielle hensyn den største utfordreren, men alle de gode hensynene som teknologien skal brukes til. Hvem kan være imot at barna lærer bedre, at biler kolliderer mindre og at flere kriminelle blir tatt? «Du må være ond for å være imot det», sa Solhjell, men vi må aksepterer SLARK i samfunnet! Det skal ikke være mulig å måle og kontrollere alt. Den andre viktige debatten knyttet til tingenes internett, som Solhjell trakk frem, er hvordan det at andre kan vite hvor vi er og hva vi gjør påvirker vårt handlingsmønster. Dette vil også være en stor debatt fremover, mente han.</p>
<p><strong>Heidi Norberg Lunde </strong>trakk frem viktigheten av å skille mellom overvåking fra staten, som er ufrivillig, og den mer frivillige overvåkingen, den vi utsetter oss for når vi innreder hjemmene våre med sensorer. Ifølge Norberg Lunde må vi se utviklingen an før vi begynner å regulere bruk av sensorteknologi: «Vi begynner ikke å regulere vann når det bare er en liten bekk». Vi må se teknologien i bruk. Det intelligente kjøleskapet har fremdeles ikke flyttet inn i hjemmene til folk, selv om det er over ti år siden vi begynte å prate om det. Foreløpig preges debatten ifølge Norberg Lunde av ytterpunktene dystopi og fremtidsoptimisme.</p>
<p><strong>Statssekretær Kai Morten Terning</strong> fremholdt at tingenes internett allerede er her i form av velferdsteknologi. Regjeringen er opptatt av de nye mulighetene som sensorteknologien gir for å ta vare på eldre og andre med spesielle omsorgsbehov, slik at de kan bo hjemme lengst mulig. Bruk av sensorteknologi på barn var statssekretæren skeptisk til, men den samme teknologien kan imidlertid ha svært stor nytte overfor eldre og demente.</p>
<p>Holm fra Lyse var enig i at «slark» i samfunnet er bra og riktig. Men når det gjelder velferdsteknologi, så er dette på full fart inn i hjemmene, og her er det viktig å få på plass klare retningslinjer. Det er snakk om å bruke de rette dataene i de rette kontekstene, poengterte han.</p>
<p><em>Debatten beveget seg så over på barns rett til personvern.</em></p>
<h3><strong>Er det grenser for hvor mye vi skal passe på barna?</strong></h3>
<p>Innlederne var enige om at det ikke hersket stor politisk uenighet i dette spørsmålet. Foreldre vil gjøre alt de kan for å passe på barna sine. Solhjell mente likevel at dette vil bli en kjempedebatt om noen år. Hvor langt skal vi gå i å passe på barna? Statssekretær Herning sa at han forstår at foreldre vil følge med på hva barna gjør. Men å gjøre dette i skjul er ikke greit. Det er egentlig det samme som å lese i barnas dagbok. Statssekretær Herning var også tydelig på at det ikke er lov å samle inn personopplysninger fra barn for å drive markedsrettet reklame. Slik innsamling og videreutnyttelse av data skal heller ikke skje ved hjelp av digitale verktøy i skolen.</p>
<p>Nordby Lunde avsluttet debatten med en Harry Potter-analogi knyttet til bruken av prediktiv analyse, en analyseform som brukes til å forutsi folks handlemønster. Når Harry Potter ankommer Galtvort får han en «Sorting hat» som skal avgjøre hvilket hus på skolen han skal tilhøre. Hatten bestemmer at han skal til Smygard. Men Harry Potter vil heller til et annet hus, og bestemmer på tvers av hva hatten sier.</p>
<p>&#8211; Det er viktig at vi selv har mulighet til å velge, og at ikke dataene bestemmer for oss.  Dataanalyse må kun fungere som en støtte til å ta gode valg.</p>
<p>&nbsp;</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2015/01/29/ja-til-slark-hoydepunkter-fra-debatten-pa-personverndagen/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Personvernåret 2015</title>
    <link>https://www.personvernbloggen.no/2015/01/05/personvernaret-2015/</link>
    <comments>https://www.personvernbloggen.no/2015/01/05/personvernaret-2015/#respond</comments>
    <avatar>http://www.personvernbloggen.no/wp-content/uploads/2015/07/Bjørn-Erik-Thon_avatar_1436432631-200x200.jpg</avatar>
    <pubDate>Mon, 05 Jan 2015 09:18:23 +0000</pubDate>
    <dc:creator><![CDATA[Bjørn Erik Thon]]></dc:creator>
    		<category><![CDATA[Ikke kategorisert]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[dataavlesing]]></category>
		<category><![CDATA[Internkontroll]]></category>
		<category><![CDATA[kriminalitetsbekjempelse]]></category>
		<category><![CDATA[Overvåking]]></category>
		<category><![CDATA[personvernforordning]]></category>
		<category><![CDATA[Schibsted]]></category>
		<category><![CDATA[terrorbekjempelse]]></category>

    <guid isPermaLink="false">http://www.personvernbloggen.no/?p=1404</guid>
    <description><![CDATA[Dette innlegget sto på trykk som kronikk i Dagens næringsliv 29. desember 2014 Det er gått halvannet år siden Edward Snowden avslørte at NSA drev massiv overvåkning av vanlige borgere. Dette ga personverndebatten en ny omdreining og gjorde folk flest mer opptatt av personvern. Grunnen var trolig at avsløringene avdekket muligheten for overvåkning av de [&#8230;]]]></description>
        <content:encoded><![CDATA[<p><em>Dette innlegget sto på trykk som kronikk i Dagens næringsliv 29. desember 2014</em></p>
<p>Det er gått halvannet år siden Edward Snowden avslørte at NSA drev massiv overvåkning av vanlige borgere. Dette ga personverndebatten en ny omdreining og gjorde folk flest mer opptatt av personvern. Grunnen var trolig at avsløringene avdekket muligheten for overvåkning av de verktøyene vi bruker til daglig, som epost, telefon og vanlig surfing på internett, og at nærmest alle typer overvåkning er mulig dersom man har vilje og ressurser.</p>
<p>Jeg vil peke på tre hovedutfordringer for personvernet i året vi har foran oss:</p>
<p>&#8211; Forslag til nye overvåkningstiltak</p>
<p>&#8211; Ny personvernforordning fra EU</p>
<p>&#8211; Kommersiell bruk av personopplysninger</p>
<p>Regjeringen har varslet en ny «pakke» med terrorbekjempende tiltak. Det vil sannsynligvis bli fremmet forslag om at PST skal få drive såkalt dataavlesning, for eksempel ved å overvåke folks tastaturer. Det er allerede foreslått at politiet skal få adgang til å bruke catchere, av samme typen som Aftenposten nylig avslørte at er utplassert i Oslo sentrum.</p>
<p>Trolig kommer det også forslag om at politiet skal få større tilgang til offentlige registre. I august ba PST-sjefen om hjemmel til å bruke stordata for å drive analyse på folks nettbruk, ved å «samle inn større mengde informasjon over tid». Hun innrømmet at innhentingen av store mengder data vil «inneholde opplysninger om personer, som i utgangspunktet ikke oppfyller de krav til formålsbestemthet, nødvendighet og relevans for behandling av opplysninger som i dag gjelder for sikkerhetstjenesten».</p>
<p>Dette er et ytterliggående og farlig forslag. Heldigvis sa samtlige politiske partier nei til forslaget samme dag det ble fremsatt.</p>
<p>Det er all grunn til å være svært skeptisk til slike forslag. Siden terroraksjonen 11. september 2001 er det vedtatt en rekke lover som skritt for skritt har gitt politiet adgang til mer overvåkning og kontroll av befolkningen.</p>
<blockquote><p>Det er en sentral oppgave for politikerne å tørre å stå imot og i ethvert tilfelle foreta grundige avveininger av personverninteressene opp mot andre interesser.</p></blockquote>
<p>Politiet skal selvsagt ha gode virkemidler for å bekjempe alvorlig kriminalitet, men borgernes frihet må ikke ofres på veien. Flere av de forslagene som nå trolig kommer vil bidra til nettopp det.</p>
<p>Det er en sentral oppgave for politikerne å tørre å stå imot og i ethvert tilfelle foreta grundige avveininger av personverninteressene opp mot andre interesser. Det er derfor å håpe at regjeringen i året som kommer viser at de er opptatt av personvern i praktisk politikk, ikke bare på papiret.</p>
<p>Personvern berøres selvsagt langt ut over kriminalitetsbekjempelse. Neste år vil EU etter alt å dømme vedta en ny personvernforordning. Borgernes rettigheter styrkes, blant annet retten til å bli glemt. Alle som lagrer og bruker data vil bli pålagt større forpliktelser til å ha en skikkelig internkontroll og gode interne rutiner for behandling av data. Datatilsynet vil bli gitt mandat til å gi bøter i millionklassen.</p>
<p>Norske virksomheter og offentlige etater har en stor jobb foran seg. Vår tilsynsvirksomhet avdekker jevnlig store mangler i de interne rutinene for behandling av personopplysninger. Mange vet ikke hvilke opplysninger de har lagret internt, de mangler rutiner for innsyn og for sletting.</p>
<blockquote><p>Personvern vil flyttes fra datarommene inn i styrerommene, til etatslederne og inn på ordførerens kontor.</p></blockquote>
<p>For å etterleve det nye regelverket må det en helt annen systematikk inn i personvernarbeidet, og det må forankres på et mye høyere nivå enn i dag. Personvern vil flyttes fra datarommene inn i styrerommene, til etatslederne og inn på ordførerens kontor.</p>
<p>At personopplysningene våre brukes til å skreddersy reklame er ikke noe nytt, men 2015 vil bli året da dette virkelig tar av. I dag selges personprofiler på børser nærmest som om det skulle være råolje. Man kan selge eller kjøpe profilen til ti tusen tredveåringer med bilinteresse som også spiser sushi og jobber i offentlig sektor.</p>
<p>Schibsted, og nå senest flyselskapet SAS, har som mål å utnytte kundenes personopplysninger i mye større grad enn i dag til blant annet målrettet reklame. Dette utfordrer personvernet på flere områder og vil bli en av Datatilsynets hovedsatsinger neste år.</p>
<p>Særlig utfordrende er det at «noen» vil vite svært mye om oss. Ikke bare hva vi liker å gjøre, men gjennom vår nettadferd (som surfing og søk) avslører vi hva vi er engstelig for, hvilke politiske preferanser vi har, og vår seksuelle legning.</p>
<p>Ofte blir anonymisering pekt på som en løsning, men sammenstilling av i og for seg uskyldige og anonyme data kan entydig identifisere en person.</p>
<p>Det finnes for eksempel bare en person i verden som er 50 år, bor i Oslo, eier en gammel Fiat og har en Maine Coon katt. Og har man knekket den koden, er det enkelt å vite hva Bjørn Erik Thon er redd for, hvem han omgås og hvilket politisk parti han sympatiserer med.</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2015/01/05/personvernaret-2015/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>PSTs ytterliggående forslag</title>
    <link>https://www.personvernbloggen.no/2014/08/22/psts-ytterliggaende-forslag/</link>
    <comments>https://www.personvernbloggen.no/2014/08/22/psts-ytterliggaende-forslag/#respond</comments>
    <avatar>http://www.personvernbloggen.no/wp-content/uploads/2015/07/Bjørn-Erik-Thon_avatar_1436432631-200x200.jpg</avatar>
    <pubDate>Fri, 22 Aug 2014 14:11:13 +0000</pubDate>
    <dc:creator><![CDATA[Bjørn Erik Thon]]></dc:creator>
    		<category><![CDATA[Politi og justis]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[Datalagringsdirektivet]]></category>
		<category><![CDATA[kameraovervåking]]></category>
		<category><![CDATA[PST]]></category>
		<category><![CDATA[taushetsplikt]]></category>

    <guid isPermaLink="false">http://www.personvernbloggen.no/?p=1235</guid>
    <description><![CDATA[I et nylig publisert innlegg (se s 33 -46) foreslår PST-sjefen Benedicte Bjørnland at PST må få mulighet til å ta i bruk «nye analyseteknologier for å kunne avdekke mønstre og trender», såkalt big data-analyse. Dette skal i sin tur «avsløre mistenkelig adferd hos enkeltmennesker». Vi legger i dag igjen enorme mengder informasjon på nettet. [&#8230;]]]></description>
        <content:encoded><![CDATA[<p>I et <a href="http://nordiskjurist.org/wp-content/uploads/2013/08/40nordiskejurist_referat.pdf">nylig publisert innlegg (se s 33 -46) </a>foreslår PST-sjefen Benedicte Bjørnland at PST må få mulighet til å ta i bruk «nye analyseteknologier for å kunne avdekke mønstre og trender», såkalt big data-analyse. Dette skal i sin tur «avsløre mistenkelig adferd hos enkeltmennesker».</p>
<p>Vi legger i dag igjen enorme mengder informasjon på nettet. Det kan være på sosiale medier, i blogger, i diskusjonsfora eller kommentarfelt i nettaviser. Det er slike opplysninger PST nå vil ha mulighet til å søke i. De vil også «samle en større mengde informasjon over tid». Jeg antar det vil skje ved at det utvikles terroralgoritmer, der brede, dype søk etter terrorprofiler vil flagge enkeltpersoner eller miljøer som må sjekkes nærmere. Dette kan generere enorme mengder data om svært mange personer. Dette betyr at hele befolkningen, og all vår nettadferd, kan bli gjenstand for overvåkning. PST vil inn i hjemmene våre, inn i datamaskinene våre og inn i våre digitale liv.</p>
<blockquote><p>Hele befolkningen, og all vår nettadferd, kan bli gjenstand for overvåkning. PST vil inn i hjemmene våre, inn i datamaskinene våre og inn i våre digitale liv.</p></blockquote>
<p>PSTs forslag er både ytterliggående og farlig. Det strider mot helt grunnleggende personvernprinsipper som at enhver registrering av enkeltpersoner skal være målrettet, relevant og ha et spesifikt formål. Det er grunn til å minne om skjebnen til datalagringsdirektivet, som påla massiv registrering av trafikkdata. <a href="http://www.aftenposten.no/nyheter/iriks/EU-domstolen-Datalagringsdirektivet-er-ulovlig-7529032.html">EU-domstolen besluttet i en dom</a> denne våren at direktivet var ugyldig blant annet fordi de ikke var tilstrekkelig målrettet, og fordi befolkningen kunne føle at de var under «kontinuerlig overvåking». Den fullmakten PST nå foreslår å gi seg selv synes jeg overgår det inngrepet datalagringsdirektivet var i folks personvern.</p>
<p>Men PST stopper ikke der. De ønsker også bedre tilgang til opplysninger hos andre offentlige etater. I enkelte saker vil det selvsagt være behov for slik tilgang, men PST vil ha en <a href="https://www.retsinformation.dk/Forms/r0710.aspx?id=152182#Kap1">blanco-fullmakt tilsvarende det de har i Danmark</a>. Der må andre forvaltningsmyndigheter gi opplysninger hvis dansk PST ber om det. Det er altså PST alene som skal vurdere om de skal ha tilgang til taushetspliktige opplysninger. Etter min mening er dette ikke akseptabelt. Utlevering må skje etter en betryggende prosess, og der også for eksempel et sykehus eller en fastlege skal ha et ord med i laget.</p>
<p>PST vil også innføre regler om datalagring i Norge. Her nøyer jeg med å minne om datalagringsdirektivet er kjent ugyldig, og at jeg er overrasket over at PST kun et halvt år etter en banebrytende dom fra EU-domstolen inviterer til omkamp.</p>
<p>I løpet av dagen i dag har PSTs forslag blitt skutt ned av en samlet politisk Norge. Det er gledelig at hensynet til personvern og enkeltmenneskets frihet veier tyngre enn overvåkning og kontroll. Tidligere har vi imidlertid sett at deler av PSTs «ønskelister» blir vedtatt. Denne gangen håper jeg imidlertid vi får se det vi alt for sjelden ser, nemlig at hensynet til borgernes personvern veier tyngst.</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2014/08/22/psts-ytterliggaende-forslag/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
    <item>
    <title>Rapport fra et internasjonalt møte i Makedonia</title>
    <link>https://www.personvernbloggen.no/2014/05/05/rapport-fra-et-internasjonalt-mote-i-makedonia/</link>
    <comments>https://www.personvernbloggen.no/2014/05/05/rapport-fra-et-internasjonalt-mote-i-makedonia/#respond</comments>
    <avatar>http://www.personvernbloggen.no/wp-content/uploads/2015/07/Bjørn-Erik-Thon_avatar_1436432631-200x200.jpg</avatar>
    <pubDate>Mon, 05 May 2014 09:39:15 +0000</pubDate>
    <dc:creator><![CDATA[Bjørn Erik Thon]]></dc:creator>
    		<category><![CDATA[Internasjonalt]]></category>
		<category><![CDATA[Teknologi]]></category>
		<category><![CDATA[Berlin-gruppen]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[kroppsnær teknologi]]></category>
		<category><![CDATA[nedkjølingseffekt]]></category>
		<category><![CDATA[smartTV]]></category>
		<category><![CDATA[Snowden]]></category>

    <guid isPermaLink="false">http://www.personvernbloggen.no/?p=1060</guid>
    <description><![CDATA[Det er et utstrakt internasjonalt samarbeid på personvern-omådet. En viktig gruppe er den såkalte Berlin-gruppen, som nå holder møte i Skopje i Makedonia. I et staselig lokale med god takhøyde, og et klimaanlegg med lav grunntemperatur, diskuteres i skrivende stund personvernproblemer mellom et tyvetalls land. En interessant del av slike møter er å høre hva [&#8230;]]]></description>
        <content:encoded><![CDATA[<p><strong><span style="line-height: 1.5em;">Det er et utstrakt internasjonalt samarbeid på personvern-omådet. En viktig gruppe er den såkalte <a href="http://www.datatilsynet.no/verktoy-skjema/Publikasjoner/Analyser-utredninger/Personvern-2014-tilstand-og-trender/">Berlin-gruppen,</a> som nå holder møte i Skopje i Makedonia. I et staselig lokale med god takhøyde, og et klimaanlegg med lav grunntemperatur, diskuteres i skrivende stund personvernproblemer mellom et tyvetalls land.</span></strong></p>
<p>En interessant del av slike møter er å høre hva som foregår i andre land. Danmark fortalte nettopp om den pågående Se og Hør-skandalen i hjemlandet, Portugal har lansert et «data protection survival kit» &#8211; et sted å få hjelp til selvhjelp i et krevende personvernlandskap, og Japan redegjorde for sin nye måte å organisere personvernarbeidet på.</p>
<p>Flere viktige temaer står på agendaen, blant annet kroppsnær teknologi, BYOD, SmartTV, sosiale nettsamfunn og «Snowden»-saken. Selv om Berlin-gruppen ikke har noen formell myndighet, har den en klar dagsordenfunksjon. I tillegg til å dele informasjon, skriver gruppen rapporter og utredninger. Disse plukkes ofte opp av mer formelle organer, som f eks EUs Working party 29, så aktiv deltagelse i Berlin-gruppen er en viktig satsing for Datatilsynet.</p>
<p>På dette møtet har den norske delegasjon (som i tillegg til meg består av Catharina Nes og Martha Eike)  flere viktige oppgaver.  Catharina Nes har flere ganger skrevet om big data på personvernbloggen.no, og bl.a. som følge av det arbeidet vi har gjort på dette området i Norge har vi nå skrevet en rapport om big data for Berlin-gruppen. Det er først gang vi skriver en slik rapport for denne gruppen, så dette er en stor tillitserklæring. I tillegg skal vi legge fram tallene fra <a href="http://www.datatilsynet.no/verktoy-skjema/Publikasjoner/Analyser-utredninger/Personvern-2014-tilstand-og-trender/">personvernundersøkelsen 2014</a> om en begynnende nedkjøling-effekt i Norge. Vi vil også gi innspill blant annet til en rapport om kroppsnær teknologi, som skrives av Canada.</p>
]]></content:encoded>
      <wfw:commentRss>https://www.personvernbloggen.no/2014/05/05/rapport-fra-et-internasjonalt-mote-i-makedonia/feed/</wfw:commentRss>
    <slash:comments>0</slash:comments>
    </item>
  </channel>
</rss>