Anonim

AI-eksperter krever boikott av Sør-Koreas universitet over autonome våpenforskning

Robotics

Rich Haridy

5. april 2018

Påstand om selvstyrt våpen som ble avslørt av Russland og Kalashnikov-konsernet i 2017 (Kreditt: Kalashnikov-konsernet)

Før et stort FN-møte for å takle de voksende problemene rundt dødelige autonome våpen, har et team av ledende AI- og robotteknologer oppfordret til en boikott av et sørkoreansk universitet som nylig annonserte åpningen av et AI-våpenlaboratorium.

Tilbake i februar annonserte Sørkoreas ledende statlige universitet, KAIST (Korea Advanced Institute of Science and Technology), åpningen av et nytt anlegg, kalt Research Center for konvergensen for nasjonalt forsvar og kunstig intelligens. Kunngjøringen avslørte at det nye forskningsanlegget ville undersøke en rekke AI-baserte militære systemer, inkludert autonome undersjøiske kjøretøyer og "AI-baserte kommando- og beslutningssystemer."

Kunngjøringen ble mottatt med stor bekymring av mange i det kunstige intelligensforskningsmiljøet, og et nylig avslørt åpen brev, signert av over 50 forskere fra hele verden, ber om en boikott av alle faglige samarbeid med KAIST over saken.

"På en tid da FN diskuterer hvordan de skal inneholde trusselen om internasjonal sikkerhet ved hjelp av autonome våpen, er det beklagelig at en prestisjetunge institusjon som KAIST ser ut til å akselerere våpenløpet for å utvikle slike våpen, " sier brevet.

"Vi erklærer derfor offentlig at vi vil boikotte alle samarbeid med noen del av KAIST til den tid KAISTs president gir forsikringer, som vi har søkt, men ikke mottatt, at Senteret ikke vil utvikle selvstyrte våpen uten meningsfull menneskelig kontroll. vil for eksempel ikke besøke KAIST, vert besøkende fra KAIST, eller bidra til ethvert forskningsprosjekt som involverer KAIST. "

Boikotten har blitt organisert av Toby Walsh, en kunstig intelligensforsker fra University of New South Wales i Sydney, som har vært fremtredende i å be om regelverk i utviklingen av autonome våpen. Walsh tidligere masterminded store åpne bokstaver i 2015 og 2017 kaller for forbud mot weaponized kunstig intelligens.

"Tilbake i 2015 varslet vi om et våpenløp i autonome våpen, " sier Walsh. "Det våpenløpet har begynt. Vi kan se prototyper av autonome våpen under utvikling i dag av mange nasjoner, inkludert USA, Kina, Russland og Storbritannia."

KAISTs president Sung-Chul Shin har reagert på den truede akademiske boikotten ved å utstede en erklæring som nekter at institusjonen arbeider med dødelige autonome våpen systemer eller "killer roboter."

"Senteret har som mål å utvikle algoritmer på effektive logistiske systemer, ubemannet navigasjonssystem [og et] luftfartstrening, " Shin sier i uttalelsen. KAIST vil være ansvarlig for å utdanne forskerne og gi konsultasjon. Som en akademisk institusjon verdsetter vi menneskerettigheter og etiske standarder i svært høy grad. KAIST vil ikke utføre forskningsaktiviteter mot menneskelig verdighet, inkludert autonome våpen som mangler meningsfylt menneske styre."

Kanskje har KAISTs nettsted fjernet den opprinnelige kunngjøringen, publisert i slutten av februar, og beskriver åpningen av det nye forskningsenteret.

Uttrykket "meningsfull menneskekontroll " synes å være viktigst i disse pågående regulatoriske diskusjonene. Den 9. april vil De forente nasjoners regjeringseksperter om dødelige autonome våpenanlegg rekonvene for den første av to møter planlagt i år for å undersøke politiske utfall relatert til AI-våpen. Den foreløpige agendaen for disse møtene antyder å bestemme hva "meningsfull menneskekontroll " egentlig betyr vil være grunnleggende for fremtidige lovbestemmelser.

Mens 22 nasjoner allerede har kalt for et direkte forutgående forbud mot utvikling av autonome våpen, ser det ut til at flere større militære stater forsinker enhver handling. Russland, som allerede har avslørt sin fremgang i retning av å utvikle selvstyrende våpen, har utstedt et direkte nekte å støtte ethvert "forebyggende forbud" på problemet, og USA utvikler sine egne autonome våpenprogrammer. Uten støtte fra disse store militære kreftene er det vanskelig å se at noen fremtidig FN-regulering er noe annet enn symbolsk.

Oppdater 9 april 2018: Boikott av KAIST av mer enn 50 AI og robotforskere er avsluttet.
"Jeg var veldig glad for at KAISTs president har avtalt å ikke utvikle dødelige autonome våpen, og å følge internasjonale normer ved å sikre meningsfull menneskelig kontroll over ethvert AI-basert våpen som skal utvikles, " sa Toby Walsh, som initierte handling. "Jeg applauderer KAIST for å gjøre det rette, og jeg vil gjerne jobbe med KAIST i fremtiden.
"Det går å vise kraften i det vitenskapelige samfunnet når vi velger å snakke ut - vår handling var en suksess over natten. Vi søkte i første omgang forsikringer privat fra universitetet mer enn måned siden om målene for deres nye laboratorium. Men dagen Etter at vi kunngjorde boikotten, ga KAIST forsikringer veldig offentlig og veldig tydelig.
"Det er mange gode applikasjoner for AI, selv i en militær innstilling. Ingen skal for eksempel risikere et liv eller en lem å rydde et minefelt - dette er en perfekt jobb for en robot. Men vi bør ikke hånden over beslutningen om hvem som bor eller som dør til en maskin - dette krysser en etisk rødlinje og vil resultere i nye masseødeleggelsesvåpen. "

Påstand om selvstyrt våpen som ble avslørt av Russland og Kalashnikov-konsernet i 2017 (Kreditt: Kalashnikov-konsernet)

Anbefalt Redaksjonens