Under Arendalsuka satte ENACT etisk risikovurdering på agendaen. Det var tydelig at temaet slo an. Teltet var nesten fullt, til tross for tidlig start kl 8 og dårlig værværmelding, så vi var veldig godt fornøyd med oppmøtet. Vi åpnet for spørsmål fra salen, som sjelden gjøres på arrangementer under Arendalsuka, og fikk mange engasjerte spørsmål som panelet diskuterte. Mange av de fremmøtte ble også igjen etterpå for å fortsette samtalen.
Vi tenker at Arendalsuka er en nyttig arena for å gjøre prosjektet kjent. Det var stor interesse for temaet og et klart ønske om flere eksempler og mer deling av konkrete erfaringer og ikke minst løsninger.
Til neste år ønsker vi å gi eksempel på ENACT-metoden helt konkret. Vi ser etter samarbeidspartnere for en slik vinkling og ønsker konkrete forslag fra mulige samarbeidspartnere velkommen!
Mer om arrangementet
Arrangementet var i UiA-teltet onsdag 14.8 kl 0800-0900. Det ble streamet, men ikke tatt opp. Arrangementet var i samarbeid med Senter for e-helse, Universitetet i Agder.
Medvirkende
Inga Strumke, Forsker, NTNU
Rune Støstad, Stortingsrepresentant, Arbeiderpartiet
Leonora O. Bergsjø, Forsker, Universitetet i Agder / Høgskolen i Østfold
Iris Bore, Data scientist, NAV
Heidi Dahl, Fagleder for ansvarlig KI, Posten Bring
Tema og program
Hvorfor er det så vanskelig å lage og bruke kunstig intelligens (KI) som er etisk forsvarlig? På arrangementet var vi opptatt av at vi begynner å se konturene av hvilken risiko KI fører med seg, og at ny lovgivning ikke vil ivareta alle aspekter av dette. Det betyr at vi ikke bare trenger teknologisk kunnskap og domenekunnskap for å vurdere risiko og velge gode løsninger, men også øvelse i etisk refleksjon for å løse dilemmaer. Derfor hadde arrangementet de tre delene knyttet til kompetanse, dilemmaer fra praksis og samtale om løsninger:
Del 1: Alle er enige om at vi vil ha etisk forsvarlig KI, så hva er problemet? Inga Strumke og Leonora Bergsjø i samtale om opplæringsbehov, etterspørsel og hvilke formater som kan fungere. Et hovedpoeng var at alle ønsker kompetanseløft, men viljen til å investere tid og innsats viser seg å være mye mindre. Gratiskurset om KI, Elements of AI, er relativt lite benyttet. Virksomheter ser ut til å ønske korte innføringer fremfor omfattende kurs.
Del 2: Hvilke dilemmaer står offentlige og private virksomheter i? Eksempler fra praksis i offentlig og privat sektor:
Iris Bore, data scientist i NAV, snakket om hvilke etiske problemstillinger som oppstår når KI-systemer skal kombineres med menneskelige vurderinger. Særlig snakket hun om hvilke etiske problemstillinger som gjenstår, etter at det er satt inn tekniske tiltak for å gjøre KI-løsningen mest mulig ansvarlig.
Heidi Dahl, Fagleder for Ansvarlig KI i Posten Bring, satt fokus på tre dilemmaer når Kunstig Intelligens skal tas i bruk i store organisasjoner: demokratisering, ikke bare av muligheter men også av risiko; at KI skal skape verdi i kontekst så løsninger må skapes i samarbeid med sluttbrukere og domeneeksperter; at vi ikke kan delegere ansvar til KI, om det er oversettelser eller systemer for beslutningsstøtte så er det den ansatte og vi som ledere som har det endelige ansvaret for konsekvensene.
Del 3: Hvem skal ta risiko og bære kostnadene som etisk forsvarlige KI-løsninger fører med seg? Paneldebatt med stortingspolitiker Rune Støstad (Ap), Heidi Dahl (Posten) og Iris Bore (NAV), ledet av Leonora Bergsjø. Vi åpnet også for spørsmål fra salen. Spørsmålsstillerte hadde konkrete eksempler på dilemmaer knyttet til bias i data (hva gjør vi med informasjon som inneholder mye bias?), finansiering (hvordan får vi dem som investerer til å tenke på etikk) og Norge som KI-nasjon (hvor er flaskehalsene som hindrer oss i å realisere KI og høste gevinster?).
Comments