Af Anders Thomsen, Direktør for Politik og Strategi, Microsoft Danmark.

At udarbejde regler for en digital fremtid, som vi næppe kan forudsige, er en udfordring for alle, da ingen sidder inde med det endegyldige svar endnu. I Microsoft ser vi derfor med glæde mod EU, der vælger at tage denne udfordring op.

Den 19. februar 2020 offentliggjorde Europa-Kommissionen ’White Paper On Artificial Intelligence – A European approach to excellence and trust’, som foreslår en fælles europæisk tilgang til både udviklingen og brugen af kunstig intelligens. Mange af de spørgsmål, som udviklingen af kunstig intelligens rejser, er tekniske og komplicerede. Vigtigst af alt er spørgsmålet om, hvordan man på bedste vis balancerer teknologiens fordele og de potentielle risici, der følger med. Kommissionen har netop identificeret mange af disse spørgsmål i det nye udspil og fremlagt bud på en mulig rammeløsning. Sådan et udspil er meget positivt, da vi kun i fællesskab kan skabe tillid til brugen af ny teknologi.

Helt konkret foreslår kommissionen en risikobaseret tilgang til regulering af kunstig intelligens, der muliggør en kombination af obligatorisk tredjepartsvurdering ved anvendelse i højrisikoscenarier i f.eks.  sundheds-, transport- og energisektoren, samt en frivillig mærkningsordning for ikke-højrisikoscenarier. Mange virksomheder, inklusive Microsoft, arbejder fokuseret på at fremme ansvarlig brug af kunstig intelligens. At indføre en frivillig mærkningsordning til produkter og systemer, der opfylder kravene til ansvarlig AI, vil derfor være gavnligt, da dette sandsynligvis vil medføre et pres fra markedskræfterne, der kan få flere virksomheder til at følge trop.

Tredjepartsvurdering og certificeringer vil f.eks. gøre det muligt at teste løsningens træningsdata, pålidelighed og præcision. Hos Microsoft ser vi positivt på den mere risikobaserede tilgang til regulering, da det er vigtigt at omfanget af regulatoriske forpligtelser stemmer overens med den risiko AI-systemer potentielt udgør. Med andre ord er det vigtigt, at AI-systemer, der udgør en lav eller ingen risiko for enkeltpersoner og samfundet, ikke skal gennemgå og være underlagt de samme omfattende forpligtelser som systemer med høj risiko. Man bør dog også overveje omkostningerne ved de obligatoriske evalueringer, så der ikke opstår en pludselig skævvridning i markedet for IT-innovation. Mange udviklere og brugere af løsninger med kunstig intelligens er små og mellemstore virksomheder, der ikke nødvendigvis har ressourcerne til at dække omkostningerne ved dyre og gentagne tredjepartsevalueringer. Hvis der ikke tages disse hensyn, risikere man, at det bliver unødigt svært at innovere og udvikle AI-systemer i Europa.

Rapporten gør desuden opmærksom på, at det store antal aktører involveret i udvikling og anvendelse af IT-systemer ofte kan komplicere ansvarsfordelingen. Derfor gør EU også klogt i at rette forpligtelserne mod den eller de aktører, som egner sig bedst til at identificere og tackle den potentielle risiko, som systemet udgør. Eksempelvis kan systemets udviklere med fordel oplyse om egenskaberne ved de datasæt, der har ”trænet” den kunstige intelligens, og i hvilke situationer samt indenfor hvilke rammer det giver mening at bruge systemet. For at en kommende regulering kan fungere mest effektivt og hensigtsmæssigt, er det derfor afgørende at fordele ansvaret korrekt fra start og nøje overveje hvilke forpligtelser, der gælder for hvilke aktører.

I Microsoft støtter vi Europas ambition om at styrke sit digitale lederskab indenfor ansvarlig brug af ny teknologi. Med en fælles indsats kan vi forhåbentlig bane vejen for europæiske virksomheder, regeringer og borgere til at skabe positiv økonomisk og samfundsmæssig værdi med hjælp fra digitale teknologier som kunstig intelligens.

Anders Thomsen er en af Europabevægelsens bloggere. På vores EU-blog bidrager erhvervs- og organisationsfolk, kulturpersonligheder, undervisere og tidligere toppolitikere til at styrke debatten om EU.

Indlægget er alene udtryk for skribentens egen holdning.