ForsikringsBrief AdvisorBrief
KØB SENESTE NYT KURSER
Køb Abonnement

Dette er et debatindlæg skrevet af en eller flere eksterne skribenter. Indlægget afspejler en personlig holdning. Forslag til debatindlæg kan sendes til Børsen Opinion: opinion@borsen.dk

Debat | Danmark har ikke råd til en AI-pause – for vores fjender tager ikke de samme forbehold

Men den hurtige udvikling af særligt offentligt tilgængelig AI såsom Chat GPT og Googles Bard har ført til et råb om timeout fra nogle af Silicon Valleys helt store navne, herunder Elon Musk og Steve Wozniak. Arkivfoto: Dado Ruvic/Illustration/File Photo
Men den hurtige udvikling af særligt offentligt tilgængelig AI såsom Chat GPT og Googles Bard har ført til et råb om timeout fra nogle af Silicon Valleys helt store navne, herunder Elon Musk og Steve Wozniak. Arkivfoto: Dado Ruvic/Illustration/File Photo Ritzau Scanpix

AI og chatrobotter er på alles læber i disse tider – og den hurtige vækst inden for både tilgængelighed og kompleksitet er lige dele imponerende og skræmmende på samme tid.

Men den hurtige udvikling af særligt offentligt tilgængelig kunstig intelligens såsom Chat GPT og Googles Bard har ført til et råb om timeout fra nogle af Silicon Valleys helt store navne, herunder Elon Musk og Steve Wozniak.

De kræver helt præcis en seks måneders udviklingspause, så regulering og lovgivning har bare en lille chance for at kunne følge med, så både virksomheder og forbrugere kan beskyttes.

For lige så hurtigt som teknologien udvikler sig til virksomheders og forbrugeres fordel, lige så hurtigt bliver teknologien også tilgængelig for ondsindede aktører – herunder statsstøttede og pengesultne it-kriminelle. Og for at det ikke skal være løgn, så udvikler mere aggressive nationer også allerede på livet løs for at skabe deres egne statsstyrede AI-maskiner.

Så er der måske noget om det, når folk som Elon Musk og Steve Wozniak råber vagt i gevær? Står vi foran sidste stoppested, inden Skynet sender os direkte mod verdens undergang?

Næppe, men én ting er sikkert: selv i sin spæde opstart er AI, som vi bruger den i dag, ikke uden sine problemer.

Kina tager ikke en pause

Brevet, som Musk og Wozniak, blandt andre eksperter, underskrev tidligere på måneden, opfordrer til et midlertidigt stop for udviklingen af alle offentlige generative AI-modeller, indtil “vi er overbeviste om, at de rent faktisk vil være positive for samfundet, og deres risici vil være håndterbare”.

Det er et værdigt mål, og der er rigelig grund til, at eksperter er bekymrede over den overvældende hastighed, hvormed generativ AI kan transformere teknologiindustrien, medicinalindustrien, uddannelse, landbrug og så videre – selv i et lille land som Danmark.

Film som Terminator giver for eksempel også masser af (fiktiv) præcedens for at være bange for virkningerne af en løbsk AI, og den slags giver næring til mere realistiske bekymringer såsom AI-inducerede massefyringer.

Men det er netop, fordi AI har magten til at revolutionere samfundet, som vi kender det, at etablerede lande med evner til at føre an i AI-udviklingen ikke har råd til en privat eller regeringsbeordret pause i udviklingen af det, for det vil lamme vores evne til at forsvare enkeltpersoner og virksomheder mod vores fjender – store som små.

Fordi AI-udvikling sker så hurtigt, vil enhver forsinkelse på grund af regulering sætte os eksponentielt tilbage fra vores modstandere, der også udvikler egen AI – og som næppe tager de samme forbehold.

Det er et problem, for politikere og reguleringsorganer arbejder ikke med samme hastighed som AI’s udvikling, og selv hvis de gjorde, var der ingen garanti for, at det ville have en effekt: Det er svært at skabe regulering på et område, som man endnu ikke til fulde forstår.

Kampen om at komme først

I de sidste otte måneder har kinesiske hackere hævdet at udvikle eller investere kraftigt i kunstig intelligens, og forskere har allerede bekræftet og identificeret metoder, som ondsindede aktører kunne bruge til at aktivere Open AI’s værktøjer til at hjælpe dem med deres hacking.

Hvor effektive disse metoder er i øjeblikket, og hvor avancerede andre nationers AI-værktøjer er, er underordnet, så længe vi ved, at de udvikler dem – og højst sandsynligt bruge dem til ondsindede formål.

Disse aktører og nationer vil næppe overholde det samme etiske regelsæt, som vi placerer på AI-udvikling i Vesten og derfor skal vi kun forvente, at AI-udviklingen tager til – også selvom vi endnu ikke kender omfanget af både de positive og negative sider – ganske enkelt fordi vi ikke skal komme bagud i forhold til vores modparter.

Inden for cybersikkerhed har vi altid omtalt vores evne til at skabe værktøjer til at forhindre angriberes udnyttelse og svindel som et våbenkapløb. Men med AI så avanceret som eksempelvis GPT4 er våbenkapløbet gået nuklear.

Ondsindede aktører kan bruge kunstig intelligens til at finde sårbarheder, indgangspunkter og generere phishing-meddelelser, der tager oplysninger fra offentlige virksomhedsmails, Linkedin og organisationsdiagrammer, hvilket gør dem næsten identiske med rigtige e-mail eller tekstbeskeder – og næsten umulige at opsnappe.

På den anden side kan cybersikkerhedsvirksomheder, der ønsker at styrke deres defensive dygtighed, bruge AI til nemt at identificere mønstre og uregelmæssigheder i systemadgangsposter eller oprette testkode eller som en naturlig sproggrænseflade, hvor analytikere hurtigt kan indsamle information uden at skulle programmere.

Hvad der dog er vigtigt at huske er, at begge sider i øjeblikket udvikler deres arsenal af AI-baserede værktøjer så hurtigt som muligt – og at sætte denne udvikling på pause ville kun bremse “the good guys”.

Det betyder ikke, at vi skal lade private virksomheder udvikle AI som en fuldt ureguleret teknologi.

Da genteknologi udviklede sig til at blive en realitet i sundhedsindustrien, igangsatte man regulering både på nationalt og internationalt niveau (eksempelvis EU) for at muliggøre mere effektiv medicin, samtidig med at man anerkendte, at andre lande og uafhængige modstandere kunne bruge det uetisk eller til at forårsage skade – skabe virusser, for eksempel.

Jeg tror, vi kan gøre det samme for AI ved at anerkende, at vi er nødt til at skabe beskyttelse og standarder for etisk brug, men også forstå, at vores fjender ikke vil følge disse regler. For at gøre det kan vi ikke forsinke forskningen med seks måneders kongresdebat og afstemning.

Vi er nødt til at operere i takt med AI’s nuværende udvikling – eller med andre ord datahastigheden.


Andre læser også

DAGENS

E-AVIS

E-avis vignette
Dagens E-avis