Kunstig intelligens, pålitelighet og utprøving av nye systemer

Kunstig intelligente systemer muliggjør nye former for kriminalitet, men også nye redskaper for politiarbeid. Men grensen mellom bruk og utprøving kan tidvis være utydelig.

Publisert Sist oppdatert

Kunstig intelligente systemer (AI) analyserer omgivelsene og handler med en viss grad av autonomi. Slik teknologi muliggjør nye former for kriminalitet, men også nye redskaper for etterforskning, forebygging og patruljering. Autonome droner, nettverksanalyse, og biometri står ofte sentralt i diskusjonene. Utviklingen er for tiden rivende og det kan være fristende for politiet å ta i bruk teknologi som ennå befinner seg på utviklingsstadiet. Grensen mellom bruk og utprøving kan tidvis være utydelig.

Mange AI-systemer er uproblematiske. De effektiviserer kjedelige arbeidsoppgaver og kvaliteten på arbeidet er enkel å vurdere. Andre systemer kan synes så avanserte og selvstendige at man har begrensede muligheter for å etterprøve og påvirke resultatene. De kan dessuten virke så inngripende at de utfordrer grunnleggende verdier i samfunnet – og dermed politiets relasjon til borgerne. Når kan politiet ta i bruk slike fremvoksende, potensielt banebrytende, systemer og når bør man la være?

Referanser

  • «Ethics Guidelines for Trustworthy AI», European Commission (2019).
  • «The secretive company that might end privacy as we know it», The New York Times, av Hill, K. (18. januar 2020)
  • «Teknologiutviklingens betydning for politiet, PST og Den høyere påtalemyndighet », FFI-rapport 21/02532, av Klepper, K. B., Greve, B. M., Ousdal, S., Paulsen, J. E., Rjaanes, M., Strand, M. & Thorsberg, L. (2021).
  • «The Dirty Harry problem», i Policing: key readings (s. 581-595), av Klockars, C. B. (2005).
  • «AI, Trustworthiness, and the Digital Dirty Harry Problem», i Nordic Journal of Policing, 8(2), av Paulsen, J. E. (2021).

Pålitelighet er viktig

I artikkelen «AI, Trustworthiness and the Digital Dirty Harry Problem» diskuteres denne problemstillingen med referanse til to teknologier: Clearview AIs ansiktsgjenkjenningsapplikasjon som har blitt forsøkt brukt av politiet i mange land, og såkalt 3D «fenotyping» der ansiktet til en person rekonstrueres utfra DNA-funn.

Begge disse teknologiene kan gi verdifull informasjon i for eksempel etterforskning, men også virke svært inngripende i forhold til personvernet. Skjønt når det gjelder personvern synes det i dag å være en glidning: folk legger jo villig ut bilder og koordinater på sosiale medier, og deler sitt DNA med diverse nettjenester. Hvis politiet kan rettferdiggjøre bruk av kunstig intelligens til å finne sammenhenger i havet av informasjon som finnes online, hvorfor ikke?

Men hvor pålitelige er egentlig disse metodene, og hvor pålitelige trenger de å være før de kan tas i bruk? Fagre løfter eller anekdoter bør ikke være nok.

Politiets teknologi skal selvfølgelig være pålitelig – det berører både politiets omdømme, og resultatene skal jo ofte legges frem for retten. Men sett at den fremvoksende teknologien kun benyttes til å hjelpe politiet med å tenke utenfor boksen – er pålitelighetskravene fortsatt de samme? Man kan jo da bare ta resultatene med en klype salt, som man ofte gjør med mer eller mindre pålitelige vitner og informanter. Og hvis man står helt fast i en sak, hvorfor ikke forsøke med utradisjonell teknologi?

Ofte er det gode grunner for å insistere på viktigheten av pålitelighet, personvern og datasikkerhet. Selv operatører med de beste intensjoner ledes fort på ville veier. Ofte vil økonomien i fremvoksende teknologiprosjekter være et problem for utviklersiden, og det er uheldig når ressursknapphet er kombinert med tilgang på sensitiv informasjon. Den enkle løsningen er å utelukke fremvoksende teknologi fra operativt politiarbeid. Likevel kan testing av slik teknologi virke rimelig under noen omstendigheter.

Alvorlighet kan være en slik omstendighet. Det kan oppstå moralsk intense situasjoner der alle berørte parter forventer at politiet presser grenser. Kanskje finnes det da tilgjengelig teknologi som ikke tillates benyttet av politiet i Norge, men som andre politistyrker – og til og med private aktører – allerede har tatt i bruk. Politiet fremstår da fort som enten for prektige eller for lite handlekraftige.

Kan unntaksvis bruk av «skitne» metoder være akseptabelt? Kan et upålitelig system kompenseres av påliteligheten til operatøren? Mange vil hevde at politiarbeid preges av en viss grad av pragmatisme: Man gjør det man må. Men finnes det en akseptabel, pragmatisk form for teknologisk pålitelighet?

Tre kriterier

I artikkelen foreslås tre kriterier, som alle må oppfylles:

For det første må det sannsynliggjøres at systemet leverer de resultatene det lover. Dette er jo i utgangspunktet ikke etablert, men over tid kan systemets nytte etableres gjennom bruk. En slik utprøvende fremgangsmåte krever at man også metodisk søker etter teknologiens svakheter. Pålitelighetskriteriet kan altså tenkes mer pragmatisk bare hvis man aktivt oppsøker systemets sårbarheter.

For det andre, hvis det er sannsynlig at utprøvingen gir informasjon, må dette også være den eneste hensiktsmessige måten å finne denne informasjonen. Med andre ord, hvis velprøvde metoder eller systemer mislykkes (eller åpenbart er uegnede), kan det være akseptabelt å bruke mer eksperimentelle. Man kan også tenke seg at hvis ytterligere og pålitelige trinn er tilgjengelige, kan den fremvoksende teknologien prøves ut som et supplement til mer pålitelige metoder. Dette krever ansvarlige operatører, for selv om de upålitelige systemene støtter de veletablerte systemenes funn, bør man være seg bevisst bekreftelsesfellen og de nye systemenes begrensninger og svakheter.

For det tredje må det også sannsynliggjøres at bruken er moralsk sett legitim. Hvis man gjennom bruk ødelegger relasjonen til borgerne, eller bidrar til at samfunnet oppfattes som mindre åpent, er utprøvingen utilbørlig. Politiets oppfatning kan ikke ensidig legges til grunn her, så det krever at man fører en bredere debatt om de nye metodene/systemene.

Å avsløre nye systemer er selvsagt ikke alltid ønskelig, med mindre man ønsker en avskrekkende effekt. En slik åpenhet kan bidra til at kriminelle iverksetter mottiltak før teknologien er på plass. Men langt fra alle polititeknologier krever hemmelighold, og det er heller ikke alltid nødvendig å gå dypt inn i systemenes detaljer i en slik type debatt. En del nye teknologier har så mange sider ved seg at legitimitet er utenkelig uten brede offentlige diskusjoner. Dersom hemmelighold er helt nødvendig er det et minstekrav at representanter for folket (for eksempel kontrollutvalg) kan gi en form for samtykke til utprøving av metodene.

Dette er altså tre kriterier som alle bør oppfylles ved utprøving av fremvoksende og potensielt banebrytende teknologier. Operatørene bør i slike sammenhenger tenke på seg selv som forskere eller «betatestere» i et utviklingsarbeid. Dette kan bidra til å opprettholde profesjonaliteten selv når man arbeider i gråsonen, for gråsoner vil fortsatt eksistere – de bør bare gjøres så små som mulig.

Som fagpersoner har operatørene (og lederne) plikt til å være oppdaterte på den teknologiske utviklingen, også som et fenomen i et bredere samfunnsperspektiv. Å skape miljøer for innovasjon og forskning som er i stand til å lette utprøvingen av nye systemer for politiet, selvsagt også med fokus på de moralske aspektene, synes som den eneste farbare veien.

Ettersom samfunnet blir teknologisk sett «smartere» og mer av kriminaliteten forflyttes til cyberdomenet, synes dette som et krav – samtidig som mange av de tradisjonelle politioppgavene vil bestå. Hva dette har å si for rekruttering, generalistrollen og mulighetene for videreutdanningsløp, bør diskuteres grundig.

Politiet bør uansett unngå å ende opp med å diskutere 2000-tallets kriminalitet med 1900-tallets begreper, og bekjempe den med 1800-tallets teknologi.{Hill, 2020 #523

Powered by Labrador CMS