Harci Robotok: Tilos Nem Engedélyezhető

Tartalomjegyzék:

Harci Robotok: Tilos Nem Engedélyezhető
Harci Robotok: Tilos Nem Engedélyezhető

Videó: Harci Robotok: Tilos Nem Engedélyezhető

Videó: Harci Robotok: Tilos Nem Engedélyezhető
Videó: Tamadas a harci robotok szigete ellen HU teljes film 2024, Lehet
Anonim

A szakértők Genfben találkoztak, de nem sikerült megállapodásra jutni: az Egyesült Államok és Oroszország blokkolt minden munkát. Talán ez az egyetlen alkalom, amikor a hegemonok ilyen harmonikusan működnek.

Harci robotok: tilos nem engedélyezhető
Harci robotok: tilos nem engedélyezhető

Genfben lezárultak az embertelen fegyverekről szóló egyezmény formájú szakértői találkozók az úgynevezett harci robotok - autonóm fegyverek - sorsáról, amelyek mesterséges intelligenciát használnak a célok legyőzéséhez. Megállapodás azonban nem jöhetett létre. Az Egyesült Államok, Oroszország, Dél-Korea, Izrael és Ausztrália azon kisebbségi nemzetek közé tartozott, amelyeknek sikerült megakadályozniuk a gyilkos robotok teljes betiltása iránti érzelmeket.

Tehát, bár még mindig nincs működő autonóm fegyver a világon, a technológia továbbra is úgymond emberséges marad - fejleszthető és kutatható. Érdekes módon az Egyesült Államok és Oroszország a Stockholmi Béke Kutatóintézet (SIPRI) szerint vezeti a legnagyobb fegyverkivitelezők listáját. Dél-Korea, Izrael és Ausztrália szintén nem marad le ebben a rangsorban - a legjobb 20 piaci szereplő közé tartoznak.

És bár Kína (a világ ötödik fegyverexportőre, az ENSZ Biztonsági Tanácsának állandó tagja a harci robotok betiltását szorgalmazza), a találkozók során nem sikerült az irányába változtatni a mérleget. Ma 26 ország nyíltan a mesterséges intelligencia háborúban történő használatának tilalma. Mások egyértelmű álláspontjától elzárkóznak) Franciaország és Németország (a harmadik és negyedik fegyverexportőr) felajánlja egy olyan dokumentum aláírását, amely megszilárdítja az ember elsőbbségét a mesterséges intelligenciával szemben, de valószínűbb, hogy azok oldalán, akik autonóm harci járműveket akarnak kifejleszteni.

"Minden bizonnyal kiábrándító, hogy a katonai óriások kis csoportja visszatarthatja a többség akaratát" - kommentálta a genfi találkozók eredményét Mary Verhem, a Gyilkos Robotok Megállításáért Kampány koordinátora.

Valójában a helyzet fegyveres monopóliumágnák összeesküvésének tűnik, tekintve, hogy az Egyesült Államok és Oroszország általában nem tud legalább valamiféle kompromisszumot kötni fontos kérdésekben. Vegyük a szírit: Washington és Moszkva kölcsönösen blokkolta egymás állásfoglalásait, miután tavasszal vegyi fegyvereket használtak Szíriában. A katonai célú fulladást okozó gázokat és egyéb mérgező anyagokat egyébként korábban az embertelen fegyverekről szóló egyezmény tiltotta.

A gyilkos robotok sorsáról a következő találkozóra Genfben, novemberben kerül sor.

Miért akarják betiltani az autonóm fegyvereket

A robotháborús tilalom hívei ragaszkodnak ahhoz, hogy a harctér ne a mesterséges intelligencia helye legyen. Véleményük szerint az ilyen technológiák hatalmas veszélyt jelentenek. Legalábbis ma nem világos, hogy a gép hogyan fogja megkülönböztetni a harcosokat (azokat, akik közvetlenül részt vesznek az ellenségeskedésben) a nem harcosoktól (a katonai szolgálat személyzetétől, akik csak önvédelemre használhatják a fegyvereket) és általában a civilektől. Lehetséges, hogy a mű megöli a sebesülteket és azokat, akik megadják magukat, amit a jelenlegi háborús szabályok tiltanak.

Mi akadályozza meg, hogy a munka megszakítsa a konfliktus minden felét, még az ilyen fegyverek tulajdonosait is? A mesterséges intelligencia elemeit már sikeresen használják a katonai felszerelésekben, a rakétákban; a robotokat vonzza a felderítés, de a végső szó még mindig az embereké. Az autonóm fegyverek nem engedelmeskednek a parancsnokok parancsának - ezért autonómak. Éppen ezért a különböző országok katonai tábornokai szkeptikusak a gépek bevezetésével a személyi állományba.

És még egy nyitott kérdés a nemzetközi terrorizmus. Az autonóm fegyvertechnika rossz kezekbe kerülhet, és végül feltörhető. Egy évvel ezelőtt Vlagyimir Putyin orosz elnök azt mondta, hogy a világ uralkodója lesz az, aki a mesterséges intelligencia fejlesztésének vezetője lesz. Az autonóm fegyverek esetében az lesz a világ uralkodója, aki hozzáfér az ilyen technológiákhoz. Ehhez pedig valójában csak egy számítógépre és egy kitérőre van szükséged, aki áthalad a biztonsági rendszereken. A Pentagon egyébként nem egyszer volt feltörve. Következésképpen senki sem adhat garanciát arra, hogy az autonóm fegyverek továbbra is sérthetetlenek maradnak.

Az sem világos, hogy ki lesz jogi felelősséggel, ha háborús bűncselekményt követnek el az autonóm fegyverrendszer működése következtében. „A fegyvert használó mérnök, programozó, gyártó vagy parancsnok? Ha a felelősség nem határozható meg úgy, ahogyan azt a nemzetközi humanitárius törvény előírja, akkor elismerhető-e az ilyen rendszerek telepítése jogi vagy etikai szempontból igazoltnak?

Érdekes módon a tudósok a harci robotok betiltását is támogatták. Ez év júliusában több mint kétezer tudós, különösen a Tesla és a SpaceX alkotója, Elon Musk és a DeepMind társalapítói aláírták azt a dokumentumot, miszerint nem fejlesztenek halálos autonóm fegyvereket. A Google is ezt tette. A technológiai óriás felhagyott a Pentagon Maven projektjének munkájával. 2017-ben pedig számos tudós már felszólította az ENSZ-t a gyilkos robotok létrehozásának betiltására.

Egyébként a háborúban lévő mesterséges intelligencia kérdése 2013 végén jelent meg az ENSZ napirendjén, de azóta gyakorlatilag semmi sem változott. Csak ebben az évben kezdődtek a szakértői találkozók az embertelen fegyverekről szóló egyezmény formájában. Vagyis több mint négy év kellett ahhoz, hogy valamilyen többé-kevésbé praktikus síkra jussunk.

Miért nem akarják betiltani az autonóm fegyvereket?

Bármennyire is elcsépeltnek hangzik, a fegyverkezési verseny a legfőbb ok, amiért nem akarják betiltani a gyilkos robotokat. Putyinnak igaza van: aki először szerez önálló fegyvereket, az uralja a világot. Hivatalosan ezt az okot hangoztatják.

A tiltás ellenzőinek legfőbb érve az, hogy lehetetlen elválasztani a polgári mesterséges intelligenciát a hadseregtől. Mint például, nem tiltjuk be a konyhakéseket csak azért, mert a terroristák használhatják őket. Valójában gyakorlatilag lehetetlen elkülöníteni a mesterséges intelligencia polgári fejlesztését a katonaságtól. De most ennek a fegyvernek a tilalmáról beszélünk, amely képes lesz önállóan meghatározni és megtámadni a célpontokat. Ez lehet a Maven projekt, amelyen az amerikai védelmi minisztérium Booz Allen Hamiltonnal együtt dolgozik (a Google elutasította a szerződést).

A Maven fejlesztői azt szeretnék megtanítani a drónokra, hogy elemezzék a képeket, különösen műholdakról, és - potenciálisan - azonosítsák a támadás célpontjait. A Pentagon még 2017 áprilisában kezdett dolgozni a projekten, és reményei szerint az év végéig megszerzi az első működő algoritmusokat. De a Google alkalmazottainak a demarche révén a fejlesztés elmaradt. Ez év júniusától Gizmodo szerint a rendszer meg tudta különböztetni az elemi tárgyakat - autókat, embereket -, de nehéz helyzetben teljesen jelentéktelennek bizonyult. Ha az autonóm fegyverek tilalmát mégis elfogadják az ENSZ szintjén, akkor a projektet fel kell selejtezni, míg a Pentagon állítása szerint fejlesztésük életet menthet, mert programozható, hogy pontosabban és megbízhatóbban működjön, mint az emberek.

"Meg kell értened, hogy a technológiáról beszélünk, hogy nincsenek olyan mintái, amelyek működnének. Az ilyen rendszerek ötlete még mindig nagyon felszínes" - jegyezte meg az orosz külügyminisztérium genfi találkozójának előestéjén. - Véleményünk szerint a nemzetközi jog, különösen a humanitárius szektor alkalmazható az autonóm fegyverekre. Nincs szükségük korszerűsítésre vagy a még nem létező rendszerekhez történő alkalmazkodásra.”

Nos, és még egy valódi, de nem hangoztatott ok a pénz. Ma a katonai mesterséges intelligencia technológiák piacát több mint hatmilliárd dollárra becsülik. Ám 2025-re ez a szám megháromszorozódik - csaknem 19 milliárdra - állítja a MarketsandMarkets amerikai vállalat elemzői szerint. A legnagyobb fegyverexportőrök számára ez jó motiváció a gyilkos robotok fejlesztésének esetleges korlátozásainak blokkolására.

A haladást nem lehet megállítani

Az önálló fegyverek betiltásának hívei megjegyzik, hogy a technológia nagyon gyorsan fejlődik, és a mesterséges intelligencia végül fegyverré válik - idő kérdése. Logika van a szavukban. A mesterséges intelligencia a negyedik tudományos és technológiai forradalom szerves része, amely most is folytatódik. Nem szabad megfeledkezni arról, hogy a technikai fejlődés ilyen vagy olyan módon kapcsolódik a katonai műveletekhez. A harmadik tudományos és technológiai forradalom a XX. Század 50-es évek közepéig tartott, vagyis csúcsa a második világháború időszakára esett.

1949-ben Genf elfogadta a polgári személyek háború idején történő védelméről szóló egyezményt. A háború utáni időszakban kiegészítették az 1907. évi IV. Hágai Egyezményt is, amely meghatározta a háború lebonyolításának szabályait. Vagyis a második világháború borzalmai váltak ennek a folyamatnak a katalizátorává. Tehát az emberi jogok védelmezői nem akarják megvárni a harmadik világháborút, hogy megvédjék az emberiséget az autonóm fegyverektől. Ezért szükséges a gyilkos robotok sorsának eldöntése - állítják.

A Human Rights Watch szakértői szerint a harci robotok használata ellentmond a Martens-nyilatkozatnak - amely a háború törvényeiről és szokásairól szóló 1899-es hágai egyezmény preambuluma. Más szavakkal, a gyilkos robotok megsértik az emberiség törvényeit és a köztudat követelményeit (az álláspontot a IV. Hágai Egyezmény is megerősítette).

"Együtt kell működnünk az ilyen fegyverrendszerek megelőző betiltása előtt, mielőtt azok elterjednének az egész világon" - mondta Bonnie Doherty, a Human Rights Watch fegyverügyi osztályának vezető kutatója.

Nos, ezúttal nem működött a gyilkos robotok betiltása. Várhatóan a novemberi találkozók is eredménytelenek lesznek. Igaz, szinte minden ország egyetért - a technológia nem engedhető meg a gravitáció útján, és a harci robotokhoz ilyen stopdarura van szükség. De még mindig nem világos, hogy az emberiségnek lesz-e ideje meghúzni, amikor erre szükség lesz.

Ajánlott: