lørdag, oktober 14, 2017

Løpet er kjørt

Stephen Hawking har tidligere advart om at mennesket ikke vil overleve de neste 1000 år på jorden. Det er flere som deler denne bekymringen. Gruppen OpenAI har også ment at utviklingen av kunstig intelligens vil medføre et våpenkappløp basert på kunstig intelligens, og at dette har stor risiko.


Kompromissløse meninger mener Stephen Hawking er for optimistisk og at OpenAi's håp om at kunstig intelligens kan kontrolleres er basert på en grunnleggende misforståelse av virkeligheten.


Utviklingen styres ikke av menneskelig intelligens, men av kapitalistisk "intelligens" og det Militær-industrielle kompleks. Kanskje kan man slenge på det politiske memekontrollerte kompleks, men dette er i stor grad ineffektivt i forhold til å ta langsiktige beslutninger utenfor rammene til de to foregående elementer.

For en gangs skyld kunne det være fristende å tenke positivistisk - men dessverre peker alle indikatorer i retning av at dette vil være urealistisk.

For nå kommer kamprobotene. Man jobber på spreng med å automatisere krigsmateriell. Fra TU: 

USAs politikk for autonome våpen er formulert i direktiv 3000.09 som krever at dødelig maktbruk er underlagt «passende nivåer av menneskelig vurdering». Det innebærer i praksis at det amerikanske forsvaret ikke lar autonome våpen angripe uten at et menneske er med i beslutningsprosessen. Det har vært en sentral politikk like lenge som høyteknologiske droner, missilforsvarssystemer og kanontårn har vært utstyrt med kunstig intelligens (AI).

Men direktiv 3000.09 utløper i år. USAs regjering under president Donald Trump skal i neste måned ta stilling til hvordan reglene for bruk av kamproboter i det amerikanske forsvaret skal se ut framover.

Og uansett hvordan det neste femårige direktivet blir, er det bare et spørsmål om tid før mennesker overlater kontrollen over avtrekkeren til maskinene, mener visedirektør Richard Aboulafia, i analysebedriften Teal Group.

Videre:

Heldigvis tar teknologiske gjennombrudd som AI alltid lengre tid å utvikle enn man forventer. Så kanskje vil menneskeheten rekke å utvikle de nødvendige betingelsene, retningslinjene og til og med spredningskontroll for å forhindre de verste scenariene, sier Richard Aboulafia.

Dette er en feilaktig vurdering. Vi klarer ikke engang å kontrollere spredning av atomvåpen idag. At vi får noen ekstra år på oss til å "ufarligjøre" autonome våpen forandrer ingenting. Det kan også legges til grunn at en slik "ufarliggjøring" tar bort mye av poenget med autonome våpen. Utviklingen vil ubønnhørlig gå mot robotisering av krig. Og det vil være umulig å hindre at også atomarsenalet knyttes til et slikt system, og med tiden vil dette komme lengre og lengre fra menneskelig kontroll. Inntil det overhodet ikke kan kontrolleres.

Skynet anyone?

Nei, Skynet fra filmene basert på Terminator er ikke nødvendig for menneskehetens kollaps. Det holder lenge at våpensystemer basert på full autonomi på et eller annet tidspunkt kommer i en automatisert eskalerende krig. Listen over nesten-tilfeller der menneskelig intervensjon har reddet verden fra atomkrig er dessverre allerede urovekkende lang.


Og det er på sin plass å minne om at ingen atomkrig kan vinnes av noen. Om USA eller Russland skulle lykkes i et 100% vellykket atomangrep uten at motparten fikk avgårde et motangrep per idag, vil den etterfølgende atomvinteren uansett effektivt avslutte menneskets tid her på jorden. Vi behøver ingen Terminators.


Løpet er altså egentlig kjørt.

Ingen kommentarer: