Vi behöver regler

System baserade på artificiell intelligens (AI) bemannar redan våra larmcentraler, tar emot beställningar på snabbmatsrestauranger och hjälper till och med att köra våra bilar. Den artificiella intelligensen blir hela tiden mera framstående och den tar numera hand om åtskilliga sysslor i vårt samhälle. AI gör mycket gott, men när vi överlämnar allt mer av våra liv till den artificiella intelligensen, måste vi definiera inom vilka ramar den tillåts fungera.

År 2019 dödades Elaine Herzberg av ett självkörande fordon i amerikanska Arizona. Vi människor är medvetna om att alla inte korsar gatan där de ska, men bilen hade inte förståelse för detta. Hon var inte nära ett övergångsställe och därför registrerade bilen inte henne som en fotgängare. Vem bär då ansvaret för olyckshändelsen?

Domstolen i Arizona kom till slutsatsen att chauffören som satt bakom ratten i den självkörande bilen var skyldig. Men det kommer en dag då ingen sitter bakom ratten i autonoma bilar. Är då den självkörande bilen den skyldiga parten? Eller är det bilens teknik som mäter avstånd med hjälp av laserljus och sensorer som bär ansvaret? Eller är det programmerarna? För tillfället har vi inga klara regler gällande vem som bär ansvaret.

Nuförtiden använder man väldigt ofta artificiell intelligens för att fatta beslut om vilken arbetssökande som är den mest lämpliga. När vi använder oss av AI för detta specifika ändamål är problemet att vi inte alltid kan förklara varför den artificiella intelligensen har kommit till en viss slutsats. Ett exempel är Amazons AI-baserade anställningsverktyg som systematiskt kasserade arbetssökande med meritförteckningar som innehöll ordet ”kvinna”. Var det inprogrammerat eller var det fråga om ett fel?

Djupinlärningsmodellerna för AI använder sig av neurala nätverk som syntetiserar en funktion och på basen av denna är det svårt att svara på frågan varför ett visst beslut har fattats. Även om det kan vara svårt måste vi ändå få mera klarhet i hur artificiell intelligens kommer fram till specifika slutsatser. Om vi inte får reda på hur beslut fattas, måste vi i varje fall testa systemen bättre. Har vi stöd av lagstiftningen kan detta göras obligatoriskt för tillverkarna.

En sak som oroar är dåliga aktörer. Oberoende av hur ädla avsikter de flesta av oss har kommer vissa personer ändå att försöka utnyttja den senaste tekniken för tvivelaktiga ändamål. Artificiell intelligens är inget undantag. Brottslingar använder redan AI för sofistikerade datasäkerhetsattacker mot organisationer för att knäcka företagens försvarsmekanismer. Vissa brottslingar använder till och med artificiell intelligens för att förändra vår uppfattning om verkligheten. Med hjälp av AI kan brottslingar skapa deepfake-videor som är video- eller ljudinspelningar där någon tycks säga något som de aldrig sagt i verkligheten. En deepfake-video kan genereras till exempel med avsikten att få företagsledare eller politiker att verka säga sådant de normalt inte skulle säga. Avsikten kan vara att påverka aktiekursen eller ett valresultat. För tillfället finns det inte någon lagstiftning som beaktar dessa scenarion.

Vi behöver regelverk och lagar som definierar och reglerar användningen av artificiell intelligens. Detta gäller både på nationell och internationell nivå för att skapa klarhet i den nuvarande situationen och även för att bekämpa brottslighet. Hittills har dock liknande regelsystem lyst med sin frånvaro när det gäller AI och vi kommer antagligen att få vänta länge innan sådana blir till. Den artificiella intelligensen blir mera framstående för varje dag som går, så bristen på tillräckliga regelverk borde lösas så fort som möjligt!

Tom Tuunainen

Centria forskning och utveckling

Artikeln är publicerad i Företagare i Finland 3/2021.