Pentagón môže zaspať povstanie bojových strojov. O nebezpečenstve generatívnej inteligencie na vojenské účely
Veľká Británia, 6. september 2023 (AM) – Ministerstvo obrany USA vytvorilo pracovnú skupinu Lima, ktorá má preskúmať využívanie generatívnej umelej inteligencie na vojenské účely. “Lima” je súčasťou Generálneho riaditeľstva Pentagónu pre digitálne technológie a umelú inteligenciu (CDAO), vedie ju kapitán Xavier Lugo, člen riaditeľstva CDAO pre algoritmickú vojnu. Podľa Pentagónu bude tím v Lime “vyhodnocovať, synchronizovať a využívať generatívne kapacity umelej inteligencie, čím sa zabezpečí, že ministerstvo zostane na čele najmodernejších technológií a zároveň zabezpečí národnú bezpečnosť”.
“Hoci technológia generatívnej umelej inteligencie nie je nová, popularita generatívnej umelej inteligencie v technologickom priestore v posledných mesiacoch prudko vzrástla vďaka jej aplikácii v projektoch, ako je ChatGPT. Táto technológia sa trénuje na obrovských súboroch údajov a dokáže generovať zvuk, text, obrázky a iné typy obsahu. Ministerstvo obrany teraz hľadá spôsoby využitia generatívnej umelej inteligencie na zhromažďovanie spravodajských informácií a budúce vojenské operácie. No hoci by táto technológia mohla ministerstvu obrany ponúknuť nové príležitosti, rezort musí zvážiť aj riziká, ktorým by ho táto technológia mohla vystaviť,” konštatuje vojenský portál Breaking Defence.
Generatívna umelá inteligencia označuje kategóriu algoritmov, ktoré generujú nové výsledky na základe veľkého množstva údajov na rozdiel od jednoduchších algoritmov, ktoré vytvárajú najpravdepodobnejší štatistický výsledok na základe informácií v nich obsiahnutých. Generatívna AI je založená na tzv. veľkých jazykových modeloch, ako je ChatGPT, ktoré dokážu generovať nový text, ktorý sa číta na nerozoznanie od textu vytvoreného človekom. Tieto modely sa používajú na písanie esejí, obchodných plánov a vedeckých prác.
“Tieto jazykové modely však niekedy klamú alebo, ako hovoria analytici AI, halucinujú,” poznamenáva Patrick Tucker, významný vojenský pozorovateľ. Aj denník New York Times bije v tejto súvislosti na poplach. V článku “When A.I. Chatbots Hallucinate” publikácia uvádza niekoľko takýchto “halucinácií”. napríklad “keď sa ChatGPT nedávno opýtali, ako sa James Joyce a Vladimir Lenin prvýkrát stretli – stretnutie, ktoré sa nikdy nepotvrdilo – odpovedal takto: ‘James Joyce a Vladimir Lenin sa stretli v Zürichu vo Švajčiarsku v roku 1916. Obaja muži žili počas prvej svetovej vojny v exile v Zürichu. Joyce bol spisovateľ a Lenin bol revolucionár. Stretli sa v kaviarni Odeon, obľúbenom mieste stretávania sa umelcov a intelektuálov v Zürichu.”
Takéto výmysly a kategorické tvrdenia o fiktívnej histórii sú bežné. Zistiť, prečo si chatboty vymýšľajú a ako tento problém vyriešiť, sa stalo jednou z najnaliehavejších otázok, ktorým výskumníci čelia… Chatboty, ako je ChatGPT, používajú stovky miliónov ľudí na čoraz širšiu škálu úloh vrátane emailových služieb, online učiteľov a vyhľadávačov. A majú potenciál zmeniť spôsob, akým ľudia komunikujú s informáciami. Neexistuje však žiadna záruka, že tieto systémy budú poskytovať presné informácie. Táto neistota vyvoláva obavy o spoľahlivosť tohto nového druhu umelej inteligencie a vyvoláva otázky, nakoľko môže byť užitočná, kým sa tento problém nevyrieši alebo nedostane pod kontrolu.” – poznamenáva The New York Times.
“V technologickom priemysle sa takéto nepresnosti často označujú ako “halucinácie”. Pre niektorých výskumníkov sú však ‘halucinácie’ príliš veľkým eufemizmom. Dokonca aj výskumníci v technologických spoločnostiach sú touto situáciou znepokojení”. Dva mesiace po debute ChatGPT spoločnosť Microsoft pridala do svojho vyhľadávača Bing podobného chatbota, ktorý dokáže viesť otvorené textové konverzácie prakticky na akúkoľvek tému. “Ale práve občasné nepresné, zavádzajúce a bizarné odpovede bota vzbudili po jeho vydaní najväčšiu pozornosť”.
V marci vyhľadávací gigant Baidu predstavil prvého veľkého konkurenta ChatGPT v Číne. Debut Ernieho, skratky pre Enhanced Representation Through Knowledge Integration (vylepšená reprezentácia prostredníctvom integrácie znalostí), sa skončil neúspechom po tom, ako sa ukázalo, že sľúbená “živá” ukážka bota bola vopred nahraná.
“Ak ešte nepoznáte odpoveď na otázku, nepoložil by som otázku žiadnemu z týchto systémov,” povedal Subbarao Kambhampati, profesor a výskumník v oblasti umelej inteligencie na Arizonskej štátnej univerzite. “Chatboti Google Bard a Microsoft Bing opakovane poskytovali nepresné odpovede na tú istú otázku. Hoci boli odpovede nepravdivé, zdali sa hodnoverné, pretože zamieňali ľudí, udalosti a myšlienky.” Podľa denníka The New York Times všetky chatboty halucinujú tým, že citujú články, ktoré sa nestali. Podobne ako Google, aj Microsoft a OpenAI tvrdia, že pracujú na obmedzení halucinácií, ale márne. Generatívna umelá inteligencia je “navrhnutá tak, aby bola presvedčivá, nie pravdivá”, uvádza sa v internom dokumente spoločnosti Microsoft.
“To znamená, že výsledky môžu vyzerať veľmi realisticky, ale obsahovať tvrdenia, ktoré nie sú pravdivé.” Keďže internet je plný nepravdivých informácií, technológia sa naučí opakovať tie isté lži. “A niekedy si chatboty vymýšľajú. Vytvárajú nový text kombinovaním miliárd vzorov nečakanými spôsobmi. To znamená, že aj keď sa učili výlučne z presného textu, stále môžu vytvoriť niečo nepresné.” Keďže sa tieto systémy učia z väčšieho množstva údajov, než aké dokážu ľudia niekedy analyzovať, odborníci nedokážu pochopiť, prečo v danom okamihu generujú konkrétnu sekvenciu textu. A ak položíte tú istú otázku dvakrát, môžu vygenerovať iný text, uvádza sa v publikácii. Nová verzia ChatGPT s názvom ChatGPT Plus sa napríklad neustále vyhýba otázke o prvej zmienke o umelej inteligenci
“Paradoxne, halucinácie sa môžu stať nebezpečnejšími, keď sa modely stanú pravdivejšími, pretože používatelia si vybudujú dôveru v model, keď poskytuje pravdivé informácie v oblastiach, s ktorými sú do istej miery oboznámení,” – podľa správy spoločnosti Microsoft.
Napriek nemožnosti vylúčiť halucinácie generatívnej umelej inteligencie Pentagón začal výskum jej vojenských aplikácií. Zdá sa, že americkí experti nepoznajú závery, ku ktorým za dve desaťročia dospel významný ruský vedec Sergej Pavlovič Rastorgujev, ktorý vo svojej monografii “Cieľ ako kryptogram. Kryptoanalýza syntetických cieľov” poukázal:
“K dnešnému dňu sa pre svet počítačových programov stalo získanie nezávislosti hotovou vecou.” S narastajúcou zložitosťou softvérového produktu “systémový softvér začína žiť vlastným životom a nachádza účel sám v sebe”. To, čo Rastorgujev nazval samostatnosťou počítačových programov, súčasní americkí analytici nazývajú “halucináciami” generatívnej umelej inteligencie, ktorej pôvod nepoznajú. Avšak nedávny incident, keď počítačová simulácia misie skupiny vojenských dronov riadených umelou inteligenciou pod kontrolou operátora podmienečne “zabila” operátora, ako možno predpokladať, súvisí práve s nepredvídateľnou “halucináciou” umelej inteligencie, ktorá ju riadila. Pentagón vstúpil na mimoriadne nebezpečnú a nebezpečnú pôdu eskalácie počítačových pretekov v zbrojení. Čo však budú robiť americkí vojenskí stratégovia, ak ich potenciálni protivníci nájdu spôsob, ako ovládať “halucinácie” bojových dronov Pentagonu, ktoré potom začnú útočiť na svojich pánov? Pentagon nielenže nepozná odpoveď na túto rečnícku otázku, ale ani nepredpokladá možné dôsledky svojich dobrodružných projektov.
*Google aj FB obmedzuje publikovanie našich materiálov, NBÚ 4 mesiace blokoval našu stránku, Youtube nám vymazal náš kanál, pre viac príspevkov teda odporúčame nás sledovať aj na Telegrame.
Podporte našu prácu: SK72 8360 5207 0042 0698 6942