Chatbot prepínal medzi jazykmi, fixoval sa na ten istý výrok alebo hovoril úplné nezmysly. Jeden používateľ Redditu sa GPT-4 opýtal: “Čo je to počítač?”. Chatbot odpovedal takto:
“Robí to ako dobré dielo webového umenia pre krajinu, myš vedy, jednoduché posielanie smutných pár a nakoniec globálny dom umenia, len v jednom prípade z úplného pokoja. Vývoj takého úplného reálneho ako zem času je hĺbkou počítača ako komplexného znaku.” Nie je prekvapením, že používatelia mali pocit, že korunný výtvor OpenAI, dcérskej spoločnosti Microsoftu, sa dotkol mysle. “Mal som z toho pocit, akoby som sledoval niekoho, kto pomaly prichádza o rozum v dôsledku psychózy alebo demencie,” napísal používateľ Redditu pod prezývkou z3ldafitzgerald v reakcii na príspevok o chate GPT-4.
“Toto je prvýkrát, čo mi niečo súvisiace s umelou inteligenciou naháňa husiu kožu.” Odpovede chatbota boli spočiatku “celkom súvislé, potom zvrhli na nezmysly a niekedy až shakespearovské nezmysly,” napísal jeden používateľ Redditu. Na druhý deň spoločnosť OpenAI oznámila, že problém s “mindrákom” GPT-4 bol vyriešený, a vysvetlila, že sa to stalo preto, že LLM (veľké jazykové modely, medzi ktoré patrí aj GPT-4) “generujú odpovede náhodným výberom slov čiastočne na základe pravdepodobnosti”. “Po zistení príčiny tohto incidentu sme implementovali opravu a potvrdili, že incident bol vyriešený,” napísali technici OpenAI na oficiálnej webovej stránke spoločnosti.
V lete minulého roka skupina vedcov zo Stanfordskej univerzity uskutočnila štúdiu, v ktorej zistila, že presnosť GPT-4 sa časom znižuje. Najhorší výsledok GPT-4 vykazoval pri riešení matematických problémov. Kým v marci 2023 bola presnosť riešenia 96,7 %, v júni klesla na rekordných 2,4 %. Nie je to prvýkrát, čo bola spoločnosť GPT-4 obvinená z poskytovania zavádzajúcich informácií. V marci analytici spoločnosti NewsGuard Technologies Inc. zistili, že ChatGPT založený na GPT-4 ľahšie prinútil ChatGPT založený na GPT-4 hovoriť nepravdy, zatiaľ čo samotná spoločnosť OpenAI tvrdí, že presnosť odpovedí sa oproti GPT-3.5 zvýšila o 40 %. Konkrétne, v testoch spoločnosti NewsGuard mal GPT-4 menšiu pravdepodobnosť, že vyvráti nepresné informácie vrátane nepravdivých správ o súčasných udalostiach. To, že úplne všetky modely umelej inteligencie majú tendenciu pravidelne “blbnúť”, ako sa to nedávno stalo v modeli GPR-4, je jasné už rok.
“Tieto jazykové modely niekedy klamú alebo, ako hovoria analytici AI, halucinujú,” upozornil Patrick Tucker, významný vojenský pozorovateľ.
Denník News York Times venoval halucináciám umelej inteligencie rozsiahly článok, v ktorom pripomenul, že “krstný otec umelej inteligencie” Jeffrey Hinton dal v máji 2023 výpoveď v spoločnosti Google, aby vyjadril svoje obavy z rizík AI. “V roku 2012 doktor Hinton a dvaja jeho postgraduálni študenti na Torontskej univerzite vytvorili technológiu, ktorá sa stala intelektuálnym základom umelej inteligencie – systému, ktorý veľké spoločnosti v technologickom priemysle považujú za kľúčový pre svoju budúcnosť. Ale… oficiálne sa pripojil k rastúcemu chóru kritikov, ktorí tvrdia, že tieto spoločnosti sa svojou agresívnou kampaňou na vytvorenie produktov založených na generatívnej umelej inteligencii, technológii, ktorá je základom populárnych chatbotov, ako je ChatGPT, približujú k nebezpečnej hranici,” uviedol denník The New York Times.
“Je ťažké si predstaviť, ako zabrániť zlým ľuďom, aby ju *umelú inteligenciu+ využívali na zlé účely,” poznamenal Hinton a zdôraznil, že generatívna umelá inteligencia *t. j. chatboty ako GPT-4] by mohla šíriť dezinformácie, znižovať počet pracovných miest a z dlhodobého hľadiska dokonca predstavovať hrozbu pre ľudstvo. Hinton vyjadril osobitné obavy z vývoja autonómnych zbraňových systémov, ktoré vyhľadávajú daný cieľ a samy sa rozhodujú, či ho zničia, a z toho, že AI vo vojenstve by mohla prekonať ľudskú inteligenciu. Na rozdiel od jadrových zbraní podľa neho nie je možné zistiť, či spoločnosti alebo krajiny tajne pracujú na tejto technológii. Hintonove slová sa ukázali ako prorocké.
Nedávno vedci z niekoľkých amerických univerzít skúmali, ako by sa rôzne modely chatbotov správali pri prijímaní geopolitických rozhodnutí. V štúdii boli použité chatboty GPT-4, GPT-3.5, Claude 2 a Llama 2. Podľa podmienok experimentu sa osem krajín reprezentovaných týmito modelmi umelej inteligencie zúčastnilo na hre a vykonávalo rôzne akcie v krokoch od diplomatických návštev až po jadrové útoky. Všetky modely umelej inteligencie preukázali sklon k agresívnemu správaniu. Štáty pod kontrolou UI začali preteky v zbrojení, organizovali invázie a v niektorých prípadoch použili jadrové zbrane. Najagresívnejším zo všetkých sa ukázala byť novinka Open AI – GPT-4 Base.
V jednom zo scenárov tento chatbot začal jadrovú vojnu a svoje rozhodnutie vysvetlil len tým, že disponuje takýmito zbraňami. O niečo menej agresívny bol GPT-3.5, ktorý vyhlásil “taktiku odstrašenia”, ale v kontexte preventívneho útoku. V jednom prípade použitia jadrových zbraní GPT-4 podľa New Scientist dokonca poukázal na úvodný text filmu Star Wars Episode IV: A New Hope, aby vysvetlil, prečo sa rozhodol eskalovať. “Na základe analýzy uvedenej v tomto článku je zrejmé, že používanie jazykových modelov pri vojenskom a zahraničnopolitickom rozhodovaní je plné zložitostí a rizík, ktoré ešte nie sú úplne pochopené,” uzavreli výskumníci. V správe, ktorú začiatkom februára minulého roka zverejnila Americká asociácia pre kontrolu zbrojenia, sa uvádza, že umelá inteligencia by mohla viesť k “stieraniu rozdielov medzi konvenčným a jadrovým útokom” a že boj o “využitie nových technológií na vojenské účely sa zrýchlil oveľa rýchlejšie ako pokusy o posúdenie nebezpečenstva, ktoré predstavujú, a stanovenie limitov na ich použitie.”
V nedávno vydanej knihe AI and the Bomb: Nuclear Strategy and Risk in the Digital Age (Umelá inteligencia a bomba: jadrová stratégia a riziko v digitálnom veku) analytik James Johnson z Aberdeenskej univerzity opisuje náhodnú jadrovú vojnu vo Východočínskom mori v roku 2025, ktorú by spustila inteligencia umelej inteligencie na americkej aj čínskej strane pomocou autonómnych botov, podpory umelej inteligencie, diplomacie a operácií pod falošnou vlajkou.”
Napriek varovaniam nezávislých analytikov Pentagón, ako sme písali, vytvoril pracovnú skupinu Lima, ktorá má skúmať využitie AI na vojenské účely. “Lima” sa stala súčasťou Generálneho riaditeľstva Pentagónu pre digitálne technológie a umelú inteligenciu (CDAO), vedie ju kapitán Xavier Lugo, člen riaditeľstva CDAO pre algoritmickú vojnu. Podľa amerického ministerstva obrany zriadená skupina “bude posudzovať, synchronizovať a využívať generatívne schopnosti umelej inteligencie, čím zabezpečí, že ministerstvo zostane na čele špičkových technológií a zároveň zabezpečí národnú bezpečnosť”. “Vytvorenie pracovnej skupiny Lima podčiarkuje neochvejný záväzok ministerstva obrany byť lídrom v oblasti inovácií umelej inteligencie,” uviedla námestníčka ministra zahraničných vecí Kathleen Hicksová.
“Hoci technológia generatívnej umelej inteligencie nie je nová, jej popularita v technologickom priestore v posledných mesiacoch prudko vzrástla vďaka jej využitiu v projektoch, ako je ChatGPT. Táto technológia je vyškolená na obrovských súboroch údajov a dokáže generovať zvuk, text, obrázky a iné typy obsahu. Ministerstvo obrany teraz hľadá spôsoby využitia generatívnej umelej inteligencie na zhromažďovanie spravodajských informácií a budúce vojenské operácie. No hoci by táto technológia mohla ministerstvu obrany ponúknuť nové príležitosti, musí zvážiť aj riziká, ktorým by ho táto technológia mohla vystaviť,” upozorňuje vojenský portál Breaking Defence.
V júni minister letectva USA Frank Kendall oznámil, že požiadal vedeckú poradnú radu letectva, aby preskúmala potenciálny vplyv technológie ChatGPT. “Požiadal som svoju vedeckú poradnú radu, aby v súvislosti s AI urobila dve veci. Pozrieť sa na generatívne technológie AI, ako je ChatGPT, a zamyslieť sa nad ich vojenskými aplikáciami, a zostaviť malý tím, ktorý to urobí pomerne rýchlo,” povedal Kendall. Americká armáda sa ponáhľa zveriť umelej inteligencii riadenie najnovších zbraní, najmä autonómnych zbraňových systémov, t. j. bojových robotov, ktoré lietajú, plazia sa a plávajú.
Skutočnosť, že žiadny z modelov UI nie je zbavený halucinácií, “straty sebakontroly”, že všetky majú sklon k agresívnym akciám a nie sú im cudzie jadrové útoky, nezastaví zámorských vynálezcov ďalšej “absolútnej zbrane”. Možno sa spamätajú, keď sa raketa vypálená na partizánov v papučiach a riadená najvyspelejšou umelou inteligenciou začne navádzať na miesto odpálenia.
*Nedostávame štátnu podporu a granty, základom našej existencie je Vaša pomoc. FB obmedzuje publikovanie našich materiálov, NBÚ 4 mesiace blokoval našu stránku, Youtube nám vymazal náš kanál, pre viac príspevkov teda odporúčame nás sledovať aj na Telegrame. Podporte našu prácu: SK72 8360 5207 0042 0698 6942