AGI, neboli umělá obecná inteligence (Artificial General Intelligence), je systém schopný zvládat široké spektrum úloh na lidské úrovni. Souběžně s tím, jak se technologie umělé inteligence vyvíjí, se AGI stává reálnější vizí, která posouvá diskuzi o AI z filozofických úvah do praktických důsledků. Avšak ani přední výzkumníci se neshodnou na jednotné definici. Práce týmu z Google DeepMind, vedená Meredith Ringel Morris, se snaží tento problém vyřešit tím, že zavádí klasifikaci vývojových úrovní AGI, která může přesněji hodnotit její pokrok, bezpečnost a dopady.
Rámec úrovní AGI
Tým Google DeepMind navrhl model, který rozděluje vývoj AGI do několika úrovní podle její univerzality (rozsah úloh, které může zvládat) a výkonu (jak efektivně tyto úlohy zvládá). Tato struktura umožňuje srovnání modelů na základě jejich funkčnosti a úrovně autonomie. Její inspirací byly úrovně autonomie řízení, které pomáhají rozlišovat různé fáze samořídících automobilů.
- Level 0: Žádná AI – zahrnuje jednoduchý software, jako jsou kalkulačky či kompilátory.
- Level 1: Emerging (vznikající) – systémy na úrovni méně kvalifikovaného člověka, například pravidly řízené systémy nebo moderní jazykové modely jako ChatGPT či Bard.
- Level 2: Competent (kompetentní) – systémy s výkonem na úrovni zkušeného člověka v konkrétních úlohách, vyžadující již rozvinutější schopnosti a spolehlivost.
Tento rámec zároveň upozorňuje na to, že s každou úrovní AGI přibývá i etických a bezpečnostních rizik, která je nutné ošetřit, než budou tyto systémy nasazeny do praxe.
Šest klíčových principů AGI
Aby bylo možné AGI klasifikovat a měřit její schopnosti, tým definoval šest principů, které se zaměřují na:
- Schopnosti, nikoli mechanismy – Definice AGI by měla být založena na tom, co umí, ne na tom, jak toho dosáhne. To zahrnuje vyloučení vědomí či lidského typu myšlení jako podmínek pro AGI.
- Výkon a univerzalita – Vedle schopnosti plnit široké spektrum úloh musí být AGI schopná dosahovat konzistentního výkonu, což je klíčové pro její spolehlivost.
- Kognitivní a metakognitivní úkoly – AGI by měla být schopna nejen provádět úkoly, ale také se samostatně učit a rozpoznat situace, kdy potřebuje pomoc nebo upřesnění od člověka.
- Potenciál, ne nasazení – AGI by měla být definována na základě svého potenciálu, nikoli toho, zda je úspěšně reálně nasazena. Zaměření se na potenciál umožňuje hodnotit AGI i bez reálného nasazení a zároveň zohledňuje rizika, která by z nasazení vyplynula.
- Ekologická validita – Hodnocení AGI by mělo být založeno na úkolech, které mají skutečnou hodnotu pro společnost. To zahrnuje nejen ekonomickou hodnotu, ale také hodnoty kulturní či sociální.
- Cesta, nikoli cíl – Místo toho, aby se vývojáři soustředili na jediný konečný cíl, kterým je AGI, navrhuje klasifikace rozdělit cestu k AGI na několik jasně definovaných úrovní, podobně jako u autonomního řízení. Každá úroveň by měla mít konkrétní metriky a benchmarky, které umožní lépe sledovat pokrok, odhadnout rizika a přizpůsobit interakci mezi člověkem a AI. Tento přístup navíc umožňuje souběžnou existenci různých definic AGI – například podle tohoto systému by koncepce Aguery y Arcase a Norviga spadala do úrovně „Počínající AGI“, zatímco OpenAI by s definicí zaměřenou na nahrazování lidské práce patřila do úrovně „Virtuoso AGI“.
Výkon (řádky) x Obecnost (sloupce) |
Úzká jasně vymezený úkol nebo soubor úkolů |
Obecná široká škála ne-fyzických úkolů, včetně metakognitivních schopností, jako je učení se novým dovednostem |
---|---|---|
Úroveň 0: Bez AI | Úzká ne-AI software kalkulačky; kompilátor |
Obecná ne-AI výpočetní systémy s lidským přispěním, např. Amazon Mechanical Turk |
Úroveň 1: Nastupující rovno nebo o něco lepší než nekvalifikovaný člověk |
Nastupující úzká AI GOFAI (Boden, 2014); jednoduché pravidlové systémy, např. SHRDLU (Winograd, 1971) |
Nastupující AGI ChatGPT (OpenAI, 2023), Bard (Anil et al., 2023), Llama 2 (Touvron et al., 2023), Gemini (Pichai and Hassabis, 2023) |
Úroveň 2: Zdatný minimálně na úrovni 50. percentilu kvalifikovaných dospělých |
Zdatná úzká AI detektory toxicity jako Jigsaw (Das et al., 2022); chytré reproduktory jako Siri (Apple), Alexa (Amazon), nebo Google Assistant (Google) |
Zdatná AGI zatím nedosaženo |
Úroveň 3: Expert minimálně na úrovni 90. percentilu kvalifikovaných dospělých |
Expert na úzkou AI kontrolory pravopisu a gramatiky jako Grammarly (Grammarly, 2023); generativní obrazové modely jako Imagen (Saharia et al., 2022) nebo Dall-E 2 (Ramesh et al., 2022) |
Expert na AGI zatím nedosaženo |
Úroveň 4: Virtuózní minimálně na úrovni 99. percentilu kvalifikovaných dospělých |
Virtuózní na úzkou AI Deep Blue (Campbell et al., 2002), AlphaGo (Silver et al., 2016, 2017) |
Virtuózní AGI zatím nedosaženo |
Úroveň 5: Nadlidská převyšuje 100 % lidí |
Nadlidská úzká AI AlphaFold (Jumper et al., 2021; Varadi et al., 2021), AlphaZero (Silver et al., 2018), StockFish (Stockfish, 2023) |
Umělá superinteligence (ASI) zatím nedosaženo |
Levels of AGI: Operationalizing Progress on the Path to AGI, Morris a kol.
Etické otázky a paralely k otázce myšlení
Napadá mě, že diskuse o AGI přináší podobná dilemata jako například otázky kolem počátku lidského života – například, kdy lidský plod získává status osoby. Podobně se u AGI objevují otázky, kdy a za jakých podmínek by měly být její schopnosti a autonomie brány jako dostatečné k tomu, aby byla za AGI identifikována.
Tento pohled také vyvolává otázky ohledně možného posouvání hodnotících kritérií. Stejně jako třeba ve vodárenském průmyslu, kde se v případě dlouhodobého překročení norem pro kvalitu vody upraví limity tak, aby jim bylo možné dostát. Mohou být metriky AGI také postupně měněny tak, aby se předešlo důsledkům obav veřejnosti, regulacím a vývoj bez překážek pokračoval? Tyto faktory mohou prohloubit nepochopení vývoje v jakékoli fazi a potenciálu AI.
Společenské a ekonomické dopady
Pokud AGI dosáhne vyšších úrovní, může zásadně proměnit trh práce, neboť by mohla nahradit lidi v mnoha klíčových profesích, což by přineslo nejen ekonomické výhody, ale také rizika, jako je ztráta vyjednávací sociálni a politické moci. Dalším významným faktorem jsou geopolitické důsledky, jelikož AGI může poskytnout značné ekonomické a vojenské výhody státům, které v její implementaci uspějí jako první. Existují však i hlubší existenciální rizika – AGI s vysokou úrovní autonomie by mohla ohrozit lidskou kontrolu nad klíčovými infrastrukturami nebo jednat proti lidským zájmům (i neúmyslně), zejména pokud by se její cíle odchýlily od hodnot společnosti. Také by mohlo dojít k destabilizaci globální bezpečnosti, kdy by jednotlivé státy či organizace využívaly AGI k asymetrickým formám moci a vlivu, což by mohlo vést až k riziku konfliktů či kolapsu sociálních struktur.
Úroveň Autonomie | Příklady Systémů | Úroveň AGI, kterou odemyká | Příklady Nových Rizik |
---|---|---|---|
Úroveň Autonomie 0: Bez AI vše provádí člověk |
Analogové přístupy (např. kreslení tužkou na papír) Nefunguje s AI – digitální workflow (např. psaní v textovém editoru; kreslení v programu pro malování) |
Bez AI | není relevantní (stávající rizika) |
Úroveň Autonomie 1: AI jako nástroj člověk plně kontroluje úkol a využívá AI k automatizaci rutinních podúkolů |
Vyhledávání informací pomocí vyhledávače Revize textu pomocí programu na kontrolu gramatiky Čtení nápisu pomocí aplikace pro strojový překlad |
Možné: Nastupující úzká AI Pravděpodobné: Zdatná úzká AI |
degradace dovedností (např. nadměrná závislost) narušení zavedených průmyslů |
Úroveň Autonomie 2: AI jako konzultant AI přebírá významnou roli, ale jen na vyžádání člověkem |
Spolehnutí na jazykový model pro shrnutí souboru dokumentů Zrychlení programování pomocí modelu generujícího kód Konzumace většiny zábavy prostřednictvím pokročilého doporučovacího systému |
Možné: Zdatná úzká AI Pravděpodobné: Expertní úzká AI; Nastupující AGI |
přehnaná důvěra radikalizace cílená manipulace |
Úroveň Autonomie 3: AI jako spolupracovník rovnocenná spolupráce člověka a AI; interaktivní koordinace cílů a úkolů |
Trénink jako šachový hráč prostřednictvím interakcí a analýzy s AI pro hru v šachu Zábava prostřednictvím sociální interakce s AI generovanými osobnostmi |
Možné: Nastupující AGI Pravděpodobné: Expertní úzká AI; Zdatná AGI |
antropomorfizace (např. parasociální vztahy) rychlé společenské změny |
Úroveň Autonomie 4: AI jako expert AI řídí interakci; člověk poskytuje vedení & zpětnou vazbu nebo vykonává podúkoly |
Používání AI systému pro pokrok ve vědeckém výzkumu (např. predikce skládání proteinů) | Možné: Virtuózní úzká AI Pravděpodobné: Expertní AGI |
společenská apatie masové přesuny pracovní síly úpadek lidské výjimečnosti |
Úroveň Autonomie 5: AI jako agent plně autonomní AI |
Autonomní asistenti pohánění AI (dosud nedosaženo) |
Pravděpodobné: Virtuózní AGI; ASI |
nesoulad cílů koncentrace moci |
Levels of AGI: Operationalizing Progress on the Path to AGI, Morris a kol.
Závěr: Jak se připravit na budoucnost AGI?
Škálovací přístup k definování AGI, který navrhuje tým z Google DeepMind, může poskytnout strukturu hodnocení AGI, pomoci identifikovat rizika a výzvy, které přicházejí s každou úrovní AGI a jejím nasazením. Na druhou stranu však ani tato klasifikace nezaručuje, že vývojáři budou vždy schopni identifikovat nebo ochotni zveřejnit pokrok svých modelů směrem k AGI.
Zdroje
Levels of AGI: Operationalizing Progress on the Path to AGI