Bliver kunstig intelligens et masseødelæggelsesvåben?

17. april 2018 kl. 11:5810
Bliver kunstig intelligens et masseødelæggelsesvåben?
I 2016 lykkedes det for første gang en AI-computer at nedkæmpe en menneskelig kampflypilot i simulatorøvelser i det amerikanske luftvåbens centrale forskningslaboratorium i Ohio. Illustration: University of Cincinnati.
Forskere advarer om, at kamprobotter med kunstig intelligens vil opskalere krig til i et hidtil uset omfang. Men det er forkert at kategorisere autonome våben som masseødelæggelsesvåben, siger forfatteren til den første danske rapport om fænomenet.
Artiklen er ældre end 30 dage

»Det spørgsmål, vi må stille os selv, lyder: Hvilke skridt kan vi tage for at forhindre en militær konkurrence, hvis udfald bliver katastrofalt for alle parter?«

Sådan lød advarslen mod en frygtindgydende ny våbenteknologi i et manifest, hvis medunderskrivere omfatter nogle af de mest anerkendte forskere inden for udviklingen af selv samme teknologi. Dengang, i juli 1955, handlede advarslen om atombomben, i et manifest fra 11 videnskabsmænd anført af Bertrand Russell og Albert Einstein.

Seks årtier senere lyder advarslen mod en ny våbenteknologi under hastig udvikling ikke meget anderledes.

»Det afgørende spørgsmål for menneskeheden er i dag, hvorvidt man skal indlede eller forhindre et globalt AI-våbenkapløb. Hvis en given stor militærmagt skubber på udviklingen af våben med kunstig intelligens, er et globalt våbenkapløb stort set uundgåeligt.«

Artiklen fortsætter efter annoncen

Advarslen mod at anvende kunstig intelligens til militære formål er formuleret i et åbent brev til FN fra 2015, hvis medunderskrivere nok engang omfatter forskere inden for selv samme teknologi. Nærmere bestemt 3.963 forskere inden for robotter og kunstig intelligens, foruden 22.396 medunderskrivere, der omfatter prominente navne som Stephen Hawking, Elon Musk, Apples Steve Wozniak og professor Noam Chomsky.

Tre eksempler på autonome våben

Illustration: US Navy.

Aegis Combat System
Kampsystemet Aegis, som udgør it-rygraden i Natos ballistiske missilforsvar, kan selv identificere og nedskyde fjendtlige ballistiske missiler. Når Aegis er koblet sammen med et Phalanx-nærforsvarssystem med maskinkanon, kan det også nedskyde fjendtlige fly. Den menneskelige operatør kan som udgangspunkt underkende systemets beslutning om at angribe, men Aegis kan også fungere i casualty mode, hvor det antager, at operatøren er forhindret i at betjene systemet, og derfor selv træffer beslutning om at skyde.

Illustration: Samsung.

SGR-A1
Sydkoreanske Samsungs intelligente vagttårn SGR-A1 bevogter i dag den demilitariserede zone mellem Nord- og Sydkorea. SGR-A1 kan selv identificere mål inden for 3,2 kilometer og kan enten reagere med en høj alarm, ikkedræbende gummikugler, et 5.56 x 45 maskingevær eller en granatkaster. Et lignende system i form af det israelske SentryTech er placeret langs grænsen til Gazastriben.

Illustration: U.S. Navy.

Sea Hunter
Sea Hunter fra Pentagons udviklingsenhed Darpa er udviklet til autonom ubådsjagt og elektronisk krigsførelse. Det ubemandede skib scanner havet under sig, og finder den et mål, kan den selv udpege fjendens mest sårbare punkter og indlede et angreb. Dog kan den ikke foretage angreb uden grønt lys fra et menneske. Sea Hunter har netop afsluttet et toårigt testforløb og er principielt klar til operativ tjeneste.

Krig i et hidtil uset omfang

Og spørger man en af specialisterne bag advarslen fra 2015, skal autonome våben ligesom atombomben kategoriseres som et masseødelæggelsesvåben. Han hedder Toby Walsh og er professor i kunstig intelligens ved New South Wales University og formand for organisationen AI Access Foundation, som har til formål at udbrede forkningsresultater indenfor kunstig intelligens.

»Verdenssamfundet bør betragte autonome våben som masseødelæggelsesvåben og ikke mindst føje dem til listen over disse. For en enkelt programmør vil kunne forvolde skader, som tidligere krævede en hel hær. Krig bliver opskaleret i et hidtil uset omfang,« fortalte Toby Walsh for få dage siden til Ingeniøren i en artikel om regulering af autonome våben.

Læs også: Har de selvstyrende kamprobotter allerede vundet krigen?

Artiklen fortsætter efter annoncen

Han er også en af de 50 forskere bag den boykot, der i sidste uge fik det sydkoreanske universitet KAIST til at opgive et samarbejde med den sydkoreanske våbenproducent Hanwha Systems om et laboratorium til udvikling af autonome våben optimeret med kunstig intelligens.

Ikke masseødelæggelsesvåben

Spørger man derimod forfatteren til den første danske videnskabelige rapport om autonome våben, rammer Toby Walshs og andre bekymrede fagfolks bestræbelser på at få kategoriseret autonome våben som masseødelæggelsesvåben ved siden af.

»Problemet er, at disse systemer slet ikke er masseødelæggelsesvåben,« siger Gary Schaub, seniorforsker ved Center for Militære Studier på Københavns Universitet. Han offentliggjorde i 2016 en rapport om behovet for retningslinjer for anvendelsen af autonome våben.

Læs også: Ny rapport: Danmark mangler politik for autonome våben

»Masseødelæggelsesvåben er per definition ikke diskriminerende i deres ødelæggelser. Det er den masseødelæggelse, der gør dem unikke. Autonome våben er ikke udiskriminerende. De autonome våben, der bliver udviklet i den nære fremtid, vil være ligesom de konventionelle våben, der anvendes i dag – kampvogne, kampfly, missiler, fregatter og ubåde – bare med en maskine som beslutningstager i stedet for et menneske,« siger Gay Schaub.

Han vurderer dog, ligsom en række andre forskere, som Ingeniøren har talt med til de seneste dages artikler, at det er nødvendigt at opstille retningslinjer for, hvordan den menneskelige kontrol med autonome våbensystemer skal foregå.

Læs også: Far til kunstig intelligens: Nytteløst at forbyde forskning i autonome våben

Når der i FN tages officielle diskussioner om mulige restriktioner på autonome våbensystemer, som det skete i Genève i sidste uge, sker det indtil videre med udgangspunkt i, at autonome våbensystemer ikke er masseødelæggelsesvåben, nemlig med henblik på en mulig opdatering af FN's konvention om særlige konventionelle våben.

Artiklen fortsætter efter annoncen

Den har til formål at forbyde eller begrænse brugen af våben, som anses for at være unødigt skadevoldende eller for at ramme i flæng, såsom landminer, lureminer, brandvåben og blindende laservåben, hvorimod listen af masseødelæggelsesvåben i dag kun omfatter kemiske, biologiske, radioaktive og nukleare våben.

Er slet ikke våben

Arbejdet med at opstille juridiske rammer for autonome våbensystemer bliver vanskeliggjort af, at selve våbendelen af systemerne næppe kommer til at adskille sig fra konventionelle våbentyper som missiler og projektiler.

En artikel bragt i ICRC’s internationale forskningstidsskrift i 2012 konkluderede på den baggrund, at autonome våbensystemer end ikke er våben, men at de alene er kendetegnet ved en særlig anvendelse af konventionelle våben. Forfatteren til rapporten, Hin-Yan Liu, er i dag professor ved Juridisk Institut på Københavns Universitet.

»Den afgørende forskel på autonome våbensystemer og andre våben er, at autonome våbensystemer ikke er våben. Våben er redskaber til at begå vold, som kræver en operatør. Det problematiske ved autonome våbensystemer er derfor ikke selve våbnet, men den operatør, der betjener det. Det bliver åbenlyst, når man tager i betragtning, at autonome våbensystemer med al sandsynlighed kommer til at benytte sig af eksisterende, konventionelle våbentyper,« siger Hin-Yan Liu.

Læs også: Kamprobotternes akilleshæl er uforudsigelighed

Fuldt autonome våbensystemer, der uden menneskelig indblanding udvælger og angriber deres mål, anvendes endnu ikke i nogen lande. I Danmark benytter Forsvaret i dag delvist autonome våben i form af såkaldte fire and forget-missiler, som efter affyring selv kan finde frem til deres mål.

Sidste uges diskussioner i FN udgjorde det andet møde i den mellemstatslige ekspertgruppe med regeringsrepræsentanter, som FN besluttede at oprette i 2016, og som skal diskutere både de teknologiske, militære, juridiske og etiske implikationer ved at udvikle autonome våben.

Den såkaldte Group of Governmental Experts on Lethal Autonomous Weapons Systems fortsætter diskussionerne ved sit næste møde i august i år.

10 kommentarer.  Hop til debatten

Tophistorier

Debatten
Vær med til at skabe en god debat ved at følge vores debatregler.

For at deltage i debatten skal du have en profil med adgang til at læse artiklen. eller opret en bruger.
settingsDebatvisning
11
18. april 2018 kl. 19:31
Mass destruction

Jamen så lad dog USA bombe Apple, Google og Microsoft, når de nu er så farlige. De behøver ikke engang at flyve til verdens ende. Det kan ikke engang være svært at skaffe oplysninger om det, for firmaerne praler med det. Armbrøster prøvede man også at stoppe. Som sædvanlig vil opfattelsen af teknologien afhænge af hvem der bruger den. Nogle er altid mere hellige og moralske end (de) andre.

10
18. april 2018 kl. 15:09
Krig er ikke et snævert "teknisk spørgsmål"

De helt afgørende spørgsmål vedrørende krig drejer sig vel om de skal føres eller ej, og hvis så da under hvilke betingelser. De teknologiske spørgsmål drejer sig om hvordan. Så det er vel, stadig, ikke de tilgængelige teknologier, eller for den sags skyld strategier, der skaber krigene, og det er ikke ingeniørerne der som sådan afgør sagen?

9
18. april 2018 kl. 12:53
Mange tror/håber på at det vil spare menneskeliv og lidelser....

Det tror jeg ikke en døjt på.

I et forsvars autonomiseret samfund, vil første bølge formentlig være robot vs robot, men de efterfølgende angrebs bølger vil (som altid) sikre at skade (ikke nødvendigvis dræbe) så mange fjender som muligt. Hele ideen med krig, er at øge plejeomkostningerne (af både materiel og personer) hos fjenden til et niveau, hvor fjenden simpelthen ikke længere kan nå at følge med, og dermed må give fortabt.

Det ændrer robot krig ikke nødvendigvis på i positiv retning.

mvh Kim Bo

8
18. april 2018 kl. 10:22
Re: Menneskeligt veto

Jeg ville foretrække at gå forbi en soldat med våben fremfor et Aegis Combat System. Altså .... Så længe soldaten ikke hedder Trumph.

7
17. april 2018 kl. 16:47
Re: Tjah

100 procent korrekt. Og her gælder samme regler for masseødelæggelses våben. At det er afskrækkelsesvåben kommet til kort den dag der er den forkerte kombination af verdens ledere. Jeg er pessimist.

5
17. april 2018 kl. 15:22
Re: Akademisk diskussion

@ Ebbe

Næsten alle er sig selv nærmest og vil gøre hvad som helst for at undgå at blive dræbt, hvis man ikke parerer ordrer .

Og ja, troende mennesker uden viden, er istand til at gøre de underligste ting. Muslimerne påstår at deres selvmordsbombere kommer direkte ind i himlen, hvis de slår fjender ihjel ved deres handlinger. Vi kristne er ikke et hår bedre. To kristne fjenders præster velsignede begge deres nations våben og soldater, inden de drager i krig mod hinanden.

4
17. april 2018 kl. 15:18
Nej

Det bliver lettere for små lande at få adgang til et godt forsvars / angrebsvåben, men nyttelast er dermed også mindre, så det vil ikke udgøre noget masseødelæggelsesvåben i sig selv.

3
17. april 2018 kl. 13:15
Omvandrende woodoo!

Citat: "Verdenssamfundet bør betragte autonome våben som masseødelæggelsesvåben og ikke mindst føje dem til listen over disse. For en enkelt programmør vil kunne forvolde skader, som tidligere krævede en hel hær. ..."

Droner, som styres på afstand, fx af soldater der sidder i en container i USA, og styrer droner, der afsøger og skyder mål ned på den anden side af planeten, er en realitet. Det kræver et stort apparat, og droner er kun lidt kendt som enkeltindividers terrorvåben.

Men et autonomt våben, i hænderne på en programmør, kan bruges uden den pris som fx en selvmordsbomber betaler, nemlig sit eget liv.

Lidt opfindsomhed, fantasi, og så har vi et autonomt våben, sat i verden med ansigtsgenkendelse som udslagsgivende for om der skal skydes eller ej, alt sammen på foranledning af en person. Det er ikke særlig rart at tænke på.

2
17. april 2018 kl. 12:37
Akademisk diskussion

Jeg vil mene at det er en ren akademisk diskussion om definitioner. I praksis vil det at man ikke længere skal sende 10.000'ere eller endog 100.000'ere af soldater afsted i krig, som risikere at komme hjem som invalide eller i en kiste, men i stedet bare kan sende en bunke hardware og software afsted, i sagens natur gøre det meget "lettere" for - særligt populistiske politikere som det jo desværre vrimler med - at starte og føre krig. I sidste ende vil det sandsynligvis betydeligt flere krige, og dermed mere ødelæggelse og flere dræbte . Prøv fx at tænk på hele stemningen efter fx. 9/11 - hvorledes mange pludselig ikke kun gik ind for tortur, men endog på det nærmeste insisterede på det blev brugt uanset om det var nødvendigt eller ej. Rigtig mange mennesker var (og er stadig) villige til at blæse på de værdier og principper vores samfund ellers er basseret på, og havde ingen kvaler med at vi opførte os fuldstændigt ligeså afstumpet og hensynsløst som de terrorister vi var oppe imod. Det er ærligt talt skræmmende at tænke på hvad der kunne være sket hvis amerikanerne havde haft autonome våben, og endnu mere skræmmende at tænke på hvis samtidigt havde haft en præsident som Trumph.

1
17. april 2018 kl. 12:15
Tjah

Alt, hvad der kan bruges, vil blive brugt, alt, hvad der bliver brugt, kan også misbruges alt, hvad der kan misbruges, vil blive misbrugt.