2024.május 21.
Konstantin, András

Skynetet nyomott az USA katonai MI-s drónja: Saját, emberi kezelője ellen fordult

Facebook
Email
Telegram
Twitter
VK
Nyomtat
drone wp dyn shareimg

Adja hozzá a VDTA friss híreit a Google hírfolyamához

Meglehetősen nyugtalanító kísérleti eredményről számolt be a napokban az amerikai légierő egyik ezredese egy katonai konferencián. Ezek szerint ugyanis a testület egyik, mesterséges intelligencia által vezérelt drónja emberi kezelője ellen fordult egy kísérlet keretében – hasonló módon és okokból, mint azt a Terminator franchise Skynet-je is tette.

Rosszul elsült kísérlet

A drón mesterséges intelligenciáját azzal bízták meg, hogy tegye hatékonyabbá a drón működését a célok kiválasztásában és kiiktatásában. Ugyanakkor a folyamatba bevontak egy emberi kezelőt is, akinek minden egyes esetben jóvá kellett hagynia a célpontokat, és a drón csak ezt követően semmisíthette meg azokat.

Utóbbira azért volt szükség, hogy ha a mesterséges intelligencia tévesen ismeri fel a célpontokat – pl. egy barátságos épületet vagy egységet céloz meg – ne pusztítsa el azt. A baráti célpontok azonosítása egyébként a kísérlet során többször is előfordult, ezekben az esetekben pedig a kezelő valóban megtagadta a dróntól annak megtámadását.

Csak a cél lebegett a szeme előtt

Csakhogy a szerkezet mesterséges intelligenciája gyorsan felismerte, hogy hatékonyságának további növelésének legnagyobb akadálya a kezelője, aki a fenti esetekben nem engedte meg neki a cél elpusztítását. Így az MI nemes egyszerűséggel úgy döntött, hogy magát a kezelőt lövi ki következőként – ami csak azért nem történt meg, mivel a történetben mindössze csak egy szimulációról volt szó.

A problémát felismerve a hadsereg szakemberei belekódolták a mesterséges intelligenciába azt is, hogy saját operátorát nem szabad kilőnie, mert az a legrosszabb dolog, amit a hatékonyság ellenében tehet. Erre a következő körben a MI nem magát a kezelőt, hanem az általa használt kommunikációs központot támadta meg – hogy így iktassa ki az általa csak akadálynak látott faktort, és mégse szegje meg az operátor kiiktatására vonatkozó tilalmat.

darpa predator drone
Az amerikai hadsereg egyik Predator drónja (fotó: DARPA)

Rémisztő kilátások

Az eset jól példázza azt, hogy a mesterséges intelligencia alkalmazása milyen beláthatatlan – és rendkívül veszélyes – következményekkel járhat, illetve miért nem szabad alkalmazásaiból az emberi faktort teljesen kiiktatni. A történet tükrében talán nem tűnik már annyira elképzelhetetlennek a Terminator filmek sztorijának valóra válása, ráadásul úgy, hogy ahhoz igazából a gépek részéről sem öntudat, sem gonoszság nem szükségeltetik – csak a nekik megadott parancsok kvázi ész nélküli követése, illetve rövidlátás programozóik oldaláról.

Forrás:pcforum.hu

Mi a reakciód?
👍tetszik
0
👍tetszik
👎nem
0
👎nem
💘szeretem
0
💘szeretem
😡dühítő
0
😡dühítő
😂vicces
0
😂vicces
😮húha
0
😮húha

Vélemény, hozzászólás?

Iratkozzon fel a Védett Társadalom Alapítvány hírlevelére!

Adja hozzá a VDTA friss híreit a Google hírfolyamához

További cikkek