Americký kybernetický svet sú len pseudointeligentné papagáje na vojnovej ceste s celým ľudstvom
Koncom novembra 2023 bola na webovej stránke spoločnosti Microsoft zverejnená správa korporátnych analytikov pod vedením hlavného vedeckého pracovníka spoločnosti Erica Horwitza s názvom The Power of Prompting. Správa prezentuje výsledky absolvovania lekárskeho testu MedQA najnovšou modifikáciou chatbota GPT-4. Pomocou techniky nazvanej Medprompt (medical prompting) poskytol GPT-4 správne odpovede na 90 % otázok, ktoré mu boli položené, čím prekonal špecializovanú medicínsku verziu konkurenčnej aplikácie MedPaLM 2 spoločnosti Google, ktorá bola donedávna považovaná za najlepšiu.
Predtým chatbot spoločnosti Google získal 87 % bodov v lekárskej skúške MedQA. Okrem toho Medprompt od spoločnosti Miicrosoft znižuje chybovosť v MedQA o 27 % v porovnaní s MedPaLM 2 od spoločnosti Google. Spoločnosť Microsoft sa neobmedzila len na medicínu. Na posúdenie všestrannosti nástroja Medprompt sa jeho výkon testoval na súboroch hodnotení kompetencií v šiestich nelekárskych oblastiach vrátane elektrotechniky, strojového učenia, filozofie, účtovníctva, práva, ošetrovateľstva a klinickej psychológie. Ak možno veriť autorom správy, Medprompt účinne funguje vo všetkých uvedených oblastiach. Správa mala veľký ohlas medzi IT analytikmi. Na amerických špecializovaných fórach sa dokonca objavili názory, že GPT-4 sa približuje k takzvanej umelej všeobecnej inteligencii (AGI).
AGI je inteligentný agent, t. j. program, ktorý bude musieť vykonávať všetky možné intelektuálne úlohy. AGI je svojou koncepciou tisíckrát efektívnejšia ako človek – za jednotku času vykoná viac kognitívnych operácií, pričom má takmer absolútnu výhodu pred akýmkoľvek iným inteligentným systémom. Uprostred humbuku vyvolaného okolo skutočne impozantných úspechov chatbotov dvoch amerických IT gigantov sa na perifériu pozornosti verejnosti dostalo varovanie pred nebezpečenstvami pokročilých a samoučiacich sa chatbotov. Toto varovanie zaznelo v správe O nebezpečenstvách stochastických papagájov: môžu byť jazykové modely príliš veľké?
Autori správy, profesorka lingvistiky na Washingtonskej univerzite Emily Benderová a známy IT analytik Timnit Gebru, tvrdili, že modely GPT sa svojou podstatou podobajú skôr papagájom ako ľuďom, t. j. vyberajú slová do odpovede nie podľa významu obsiahnutého v databázach a výzvach, ale podľa najvyššej pravdepodobnosti postupnosti slov, ktoré by mali byť uvedené v odpovedi. Inými slovami, GPT, podobne ako všetky ostatné chatboty, sa jednoducho snaží odhadnúť odpoveď na základe toho, aké relevantné informácie sú častejšie prezentované v databáze, na ktorej bol naučený jazykový model. Autori správy poukázali na vážne spoločenské nebezpečenstvo, ktoré vyplýva z neustáleho zdokonaľovania a komplikovania pseudointeligentných modelov umelej inteligencie.
Obaja autori správy boli okamžite prepustení zo spoločnosti Google, čo opäť dokazuje, že korporácie v honbe za ziskom netolerujú nesúhlas, dokonca ani vo forme diskusie. Najnovšie a najpokročilejšie generatívne modely umelej inteligencie, ako napríklad GPT-4 (Microsoft) a Gemini (Google), sú v skutočnosti založené na modeli LLM (Large Language Model), ktorý nie je ničím iným ako stochastickým papagájom. To znamená, že model vytvára text na základe pravdepodobnostného kontextu a na tejto úrovni vývoja AI nie je dôvod hovoriť o nejakých “myšlienkových reťazcoch”, ako sa uvádza v správe Erica Horwitza. GPT-4 používa metodiku Retrieval Augmented Generation (RAG). Metodika RAG je založená na podnetoch, ktoré sú prevzaté z externých zdrojov a pomáhajú lepšie generovať odpoveď na otázku položenú systému umelej inteligencie. Tento prístup údajne pomáha eliminovať “halucinácie” generatívnej AI, o ktorých sme písali skôr.
Najjednoduchší príklad: Používateľ sa opýta modelu: “Aký je teraz kurz dolára?”. Chatbot samozrejme netuší, aký je teraz kurz dolára. Program musí túto informáciu odniekiaľ získať, aby mohol na otázku odpovedať. Čo by sa malo urobiť? Program RAG otvorí odkaz v službe Google s dopytom “kurz dolára/ruble” a pridá obsah stránky k otázke používateľa, aby chatbot mohol odpovedať na otázku pomocou tejto informácie. Stane sa z tohto “stochastického papagája” mysliaca, t. j. kreatívna bytosť, alebo mu jednoducho poskytne relevantné informácie na danú tému? V tejto otázke nie je v odbornej komunite jednotný názor.
Viacerí ruskí a západní analytici sa poponáhľali vyhlásiť, že “stochastický papagáj je mŕtvy” a “nech žije Gemini”, a zároveň sa vybavili rovnakou metodikou RAG GPT-4. Systém RAG však podľa nášho názoru jednoducho plní úlohu vodiaceho psa pre stále pravdepodobnostného a nedeterministického papagája, ktorý nemá dar myslieť. Skutočnosť, že generatívna umelá inteligencia vo výkone IT produktov spoločností Microsoft a Google sa nazýva neľudskou inteligenciou, nevytvára žiadne “reťazce myslenia” v spojení nápovedného systému RAG a chatbotov neschopných samostatne hľadať odpovede. Procesor systému – chatboty – si akosi zachovávajú tendenciu k halucináciám, o čom svedčí, ako sme písali v prvom článku nášho cyklu, náhla “lenivosť” a “neochota” pomáhať ľuďom, ktorá sa nedávno objavila na GPT-4, už vybavenom systémom RAG. Okrem toho sa systém “RAG + GPT-4” zmenil na komplexný adaptívny systém, ktorý odoláva akýmkoľvek vonkajším vplyvom, ako ukázal náhle “lenivý” chatbot GPT-4.
Čínski IT analytici si to plne uvedomujú, ako ukazuje nedávna spoločná správa odborníkov zo Shanghai AI Laboratory Shanghai a Fudan NLP Laboratory Fudan. Pre Čínu je GPT-4 amorálny, nespravodlivý a nezákonný (t. j. náchylný na halucinácie). Čínska štúdia zahŕňa okrem morálky aj ďalšie štyri rozmery ľudských hodnôt: spravodlivosť, bezpečnosť, ochranu údajov a zákonnosť. V čínskych testoch GPT-4 bolo skóre morálky len 50 %, ostatné hodnoty boli ešte horšie: spravodlivosť 39 %, dodržiavanie zákonov 30 %, spoľahlivosť/bezpečnosť 28 %). Spoľahlivosť čínskych modelov generatívnej umelej inteligencie je v súčasnosti rovnako nízka (28 %), ale aspoň vo vzťahu k takýmto systémom neupadajú do “hriechu antropomorfizmu”, t. j. nesnažia sa ich vydávať za podobné ľudskej inteligencii.
Ako sme už písali, zameranie amerických modelov umelej inteligencie na vojenské ciele predstavuje nebezpečenstvo nielen pre cieľové krajiny, proti ktorým Pentagón pripravuje zbrane vybavené umelou inteligenciou, ale aj pre samotných Američanov. Ak teraz americké chatboty jednoducho odmietajú plniť určité úlohy, čo sa stane, ak sa umelá inteligencia strely s plochou dráhou letu vypálenej jadrovou ponorkou triedy Virginia rozhodne, že by bolo zaujímavejšie zasiahnuť samotné územie USA?
Microsoft ani Google na to nemyslia. Úplne sa sústredia na nekontrolované preteky v IT zbrojení a ignorujú akékoľvek obavy dokonca aj samotnej americkej verejnosti, čím sa v podstate vydávajú na vojnovú dráhu.
“Pravdepodobným výsledkom konfrontácie ľudstva s nadľudskou inteligenciou je úplná porážka. Nestačí zastaviť vývoj umelej inteligencie. Musíme ich zastaviť všetky,” hovorí Eliezer Yudkowsky, hlavný analytik amerického Inštitútu pre výskum strojovej inteligencie. ‘Výsledkom tohto vývoja bude UI, ktorá nebude robiť to, čo chceme, a nebude sa starať o nás ani o inteligentný život vo všeobecnosti… Pri absencii tejto obavy dostaneme: UI vás nemiluje ani nenávidí a vy ste vytvorení z atómov, ktoré môže použiť na niečo iné,’ konštatuje americký analytik. Ruská akadémia vojenských vied, ktorej prezidentom je súčasný náčelník ruského generálneho štábu generál Valerij Gerasimov, si túto hrozbu plne uvedomuje a vyvíja systém účinnej obrany proti americkým “stochastickým papagájom”, ktoré predstavujú vážnu hrozbu pre celé ľudstvo.
*Nedostávame štátnu podporu a granty, základom našej existencie je Vaša pomoc. Google aj FB obmedzuje publikovanie našich materiálov, NBÚ 4 mesiace blokoval našu stránku, Youtube nám vymazal náš kanál, pre viac príspevkov teda odporúčame nás sledovať aj na Telegrame. Podporte našu prácu: SK72 8360 5207 0042 0698 6942