AI – regulering og ansvarlig bruk

Generativ AI må oppfylle krav til transparens, som å avsløre at innholdet ble generert av AI og publisere sammendrag av opphavsrettsbeskyttede data brukt til trening. 

Hvordan utnytte AI uten å gå på bekostning av etikk og kommende reguleringer? Vi gir deg en kort oppdatering på reguleringer, tilgjengelige veiledere og hvordan du kommer i gang.

Etter allmenn tilgjengeliggjøring av ChatGPT høsten 2022 har det vært løpende mediedekning knyttet til bruk av generativ AI for generering av tekstlig innhold, bilder, lyd og video. Vinklingene spriker fra eufori til eksistensiell frykt. Den raske utviklingen har også ført med seg et massivt trykk på behovet retningslinjer og regulering for ansvarlig utvikling og bruk av AI. Mange virksomheter opplever nå å stå i en spagat.

EU AI ACT – formål og prosess

EU forsøker å få på plass verdens første, omfattende lovverket for bruk av AI av denne typen. En overordnet målsetting er at AI-systemer som brukes i EU er menneskesentrerte, trygge, transparente, sporbare, ikke-diskriminerende og miljøvennlige og at de for å forhindre skade overvåkes av mennesker heller enn automatisering.

Arbeidet med EU AI ACT var godt i gang i EU-kommisjonen våren 2021. Forslaget ble vedtatt med en rekke endringer og innstramminger av EU-parlamentet forsommeren 2023, og det kan bli endelig vedtatt som lov allerede i slutten av 2023 med virkning fra 2026. Fram til ny lov trer i kraft vil det kunne bli frivillige samsvarserklæringer. Noen av endringene gjort i 2023 er knyttet til den raske utviklingen og tilgjengeliggjøringen av generativ AI og underliggende “foundation models” som “large language models” (LLMs/store språkmodeller). EU AI ACT forventes gjennom den tilhørende kommende norske KI-forordningen å treffe minst like hardt som GDPR og personvernforordningen gjorde i sin tid. Dette blir med andre ord ikke et valgfag, og juristene vil få nok å henge fingrene i!

Forventet innhold i EU AI ACT

Endelig lovtekst er ennå ikke tilgjengelig, men mye av innhold og innretning er klart. Forslaget tar en risikobasert tilnærming, som innebærer at kravene et system må oppfylle vil avhenge av hvor stor risiko systemet utgjør. Det defineres fire nivåer for risiko. Uakseptabel risiko bryter med grunnleggende rettigheter og vil bli forbudt. Eksempler på slike systemer er bruk av manipulative eller villedende teknikker, sosiale scoringssystemer, og visse biometriske identifikasjonssystemer.

Det er en egen klasse for høyrisiko AI-systemer som omfatter anvendelser innenfor angitte bruksområder, f.eks. biometrisk identifikasjon i offentlige rom, forvaltning og drift av kritisk infrastruktur, tilgang til og benyttelse av vesentlige private og offentlige tjenester (dekker bl.a. helsetjenester og livsforsikring). Justissektoren med politi, domstoler og utlendingsforvaltning er sterkt representert i høyrisiko-områdene. For høyrisiko systemer stilles strenge krav til aktørene, som forhåndsvurdering av samsvar, krav til dokumentasjon i hele livsløpet, risikostyring av den enkelte anvendelsen og for utvikler krav til tilpasninger i kvalitetssystem. For disse er det også obligatorisk å gjennomføre en konsekvensvurdering i forhold til brudd på grunnleggende rettigheter.

For AI med begrenset risiko er det transparenskrav som f.eks. at brukerne gjøres klar over at de samhandler med AI. Systemer som ikke faller innenfor kategorien uakseptabel risiko eller høyrisiko og ikke er underlagt åpenhetsforpliktelser er med minimal risiko. Her oppfordres tilbydere til å følge frivillige etiske retningslinjer.

Generativ AI må oppfylle krav til transparens, som å avsløre at innholdet ble generert av AI og publisere sammendrag av opphavsrettsbeskyttede data brukt til trening. 

European Artificial Intelligence Office (“AI Office”) etableres og en EU-database for stand-alone høyrisiko AI systemer opprettes. Nasjonale tilsynsmyndigheter for AI er ønskelig. 

Forbrukerrettigheter og generativ AI

Forbrukerrådets lanserte sommeren 2023 en rapport om bruk av generativ AI og forbrukerrettigheter kalt GHOST IN THE MACHINE – Addressing the consumer harms of generative AI”. Rapporten gir både en god oversikt over eksisterende og kommende utfordringer knyttet til AI, men også eksisterende og kommende lovgivning og reguleringer. Rapporten kommer med tydelige anbefalinger knyttet til hvilke forbrukerrettighetsprinsipper som er grunnleggende for sikker og ansvarlig AI, oppfordringer knyttet til håndheving av lovgivning og reguleringer og ikke minst forslag til retningslinjer og forpliktelser knyttet til ansvarlig utvikling, utplassering og bruk av generativ AI.

Bruk av AI i offentlig sektor

Digitaliseringsdirektoratet (Digdir) har tilgjengeliggjort en veiledning for ansvarlig utvikling og bruk av kunstig intelligens i offentlig sektor i “åpen beta”. Hos Digdir finnes også en oppdatert oversikt over arbeidet med KI-forordningen, og det finnes en anbefaling rundt bruk av generativ kunstig intelligens i offentlig sektor.

Vellykket AI er ansvarlig AI

Computas har jobbet med AI siden 80-tallet og har et sterkt fagmiljø på feltet. Automatisering og AI gir næringslivet og offentlig sektor store muligheter for effektivisering og innovasjon. Det er fullt mulig å benytte AI på områder og måter som er etisk forsvarlige, men det krever forståelse for fallgruvene og praktisk erfaring med hvordan man unngår disse og sikrer AI-bruk som er transparent og ansvarlig. 

Det hviler et felles ansvar på alle aktørene i AI-kjeden, både de som utvikler og tilgjengeliggjør grunnleggende modeller, de som benytter disse, de som beriker de grunnleggende modellene med data fra sin egen kunnskapsbase, de som utvikler løsninger for anvendelse og virksomhetene som tar disse i bruk. Computas er bevisst sin rolle i dette og bidrar med kompetanse og rådgivning til våre samarbeidspartnere og kunder. For oss er vellykket bruk av AI synonymt med ansvarlig AI.

Kom i gang med AI Discovery Workshop

Nysgjerrig på hvilken betydning AI kan ha for din virksomhet? I denne kreative workshopen går vi gjennom virksomhetens mål og behov og kobler dette opp mot muligheter i teknologien. Workshopen kan gjennomføres på en hel eller en halv dag, og kan skreddersys etter ønskede fokusområder som effektivisering, automatisering, innovasjon e.l. Etter workshopen vil dere motta en rapport med anbefalinger om hvilke skritt virksomheten kan ta – på både kort og lang sikt. Les mer her!

Portrett Pål Knudsen

Vil du vite mer?

Ta kontakt for en uforpliktende prat

Pål Vermund Knudsen