AI, optimisté vs pesimisté a proč singularita není blízko

Minulý rok jsem četl knihu Raye Kurzweila Jak vytvořit mysl a to na mě docela zapůsobilo. To mě vedlo k jeho další knize The Singularity is Near, která nabídla extrémně optimistickou vizi budoucnosti AI.

Kurzweil jsem vždycky respektoval, protože na rozdíl od jiných komentátorů umělé inteligence má v oboru zkušenosti. Je jedním z mála extrémních AI optimistů, vyrovnávající extremismus AI pesimistů.

Jako mnoho kritiků umělé inteligence, Kurzweil věří v technologickou jedinečnost a myslí si, že je hned za rohem (2045!). Singularity říká, že když technologie postupuje na určitou úroveň, bude schopna vstoupit do opakujícího se cyklu sebezdokonalování. To by vedlo k explozi inteligence zakrývající veškeré kombinované lidské inteligence, což by vedlo k velmi nestabilní éře. V matematice název singularity označuje bod, který daný matematický objekt není definován (např. F (x) = 1 / x při x = 0). Zastáncové technologické jedinečnosti věří, že algoritmy umělé inteligence nakonec dosáhnou tohoto bodu a transformují společnost.

Většina umělých inteligencí je dnes trénována pomocí jednoduchého mechanismu odměňování. Inteligence dostane vstup, nějakou architekturu a říká se, aby maximalizovala nebo minimalizovala nějakou funkci na základě toho, co je správná odpověď. Několik příkladů:

  1. Anglická věta → ■ → → Španělská věta
  2. Zvuková vlna → ■ → Slova
  3. Pixely → ■ → hot dog nebo ne hot dog

Co se děje v krabici, je optimalizováno tak, aby se zvýšila pravděpodobnost správné odpovědi, která je poskytována. Tam je také učení bez dozoru, kde není poskytnuta odpověď, místo toho je cílem obvykle najít nějakou strukturu v poskytnutých informacích. Rozdíl je však pouze povrchní, protože architektura stále slouží k maximalizaci / minimalizaci druhu užitkové funkce.

Co si myslí pesimisté, že se stane

Pesimisté se domnívají, že tento systém nevyhnutelně povede k katastrofě. Zde je Nick Bostrom ze Superintelligence o riziku příliš silných systémů AI:

Když vytvoříme první superinteligentní entitu, můžeme udělat chybu a dát jí cíle, které ji povedou k ničení lidstva, za předpokladu, že její obrovská intelektuální výhoda jí dává moc. Například bychom mohli omylem povýšit subgoala na status supergoalu. Říkáme mu, aby vyřešil matematický problém, a splňuje to tím, že přeměňuje veškerou záležitost ve sluneční soustavě v obří výpočetní zařízení, v procesu zabíjení osoby, která položila otázku.

V podstatě to, co říká, je, že černá skříňka by naivně udělala cokoli, aby maximalizovala její funkci. Používá konkrétnější příklad umělé inteligence, jejímž účelem je maximalizovat výrobu kancelářských sponek:

To by inovovalo lepší a lepší techniky pro maximalizaci počtu kancelářských sponek. V určitém okamžiku by to mohlo přeměnit „nejprve celou zemi a poté zvětšit část prostoru na výrobní závody kancelářské sponky“.

Nejsem si jistý, jak praktické je předat celou kolektivní hmotu vesmíru algoritmu. Ale určitě, kdyby existovalo něco opravdu chytrého, Bostrom věří, že by mohl přijít na způsob, jak nás všechny zabít, a neváhalo by to.

Co se podle optimistů stane

Někdy se dva lidé mohou dívat na stejná fakta a přijít s úplně opačnými interpretacemi. Kurzweil a další optimisté umělé inteligence věří, že jedinečnost přinese lidské společnosti nezdařené bohatství. Odhaduje, že stroj projde Turingovým testem do roku 2029. Protože pokud stroj dokáže přimět člověka, aby si myslel, že je to v rozhovoru skutečné, je nyní nějakým člověkem. A do roku 2045 budeme úplnou singularitou:

Tempo změn bude tak úžasně rychlé, že nebudeme schopni držet krok, pokud nezlepšíme svou vlastní inteligenci sloučením s inteligentními stroji, které vytváříme

Pokud jde o jeho účinek na člověka:

My lidé se začneme navzájem propojovat a staneme se metapřipojením, které budeme všichni spojeni a všichni budeme všudypřítomní, zapojeni do této globální sítě, která je připojena k miliardám lidí a naplněna údaji.
Pro jednoho vítám naše nové vládce hmyzu

Nejen to, ale budeme žít navždy. Nevadí vám protichůdné informace, které vycházejí pravidelně, zda je jídlo pro vás dobré nebo špatné. Kurzweil si myslí, že jsme hned za rohem, abychom nejen porozuměli lidskému zdraví, ale vyřešili ho jednou provždy. Kurzweil ve skutečnosti v roce 2005 předpověděl, že do pěti až deseti let budeme mít pilulku, která lidem umožní jíst, co chtějí, aniž by přibrala na váze. Jak na tom děláme? Parafrázovat Petera Thiela:

Chtěli jsme pilulky, které nás nechají jíst, co chceme, místo toho máme gumové pásky, které si svírají žaludky.

Průlomové vědecké úspěchy mají vždy tendenci být vzdálené 10 až 15 let. Vědci už nebudou moci získat finanční prostředky. Čím kratší, vědci by vlastně museli přinést výsledky.

Co se vlastně stane

Pravděpodobně ne moc. V roce 2016 byl proveden průzkum předních výzkumných pracovníků v oblasti AI. Jedna z otázek byla položena „Kdy myslíte, že dosáhneme superintelligence“. Výsledky jsou namalovat jiný obrázek:

Připomínky poskytly určitý pohled na myšlenky vědců:

"Cesta, cesta, cesta více než 25 let." Pravděpodobně po staletí. Ale nikdy ne. “
"Konkurujeme s vývojem lidského mozku po miliony let." Můžeme psát jednoúčelové programy, které mohou konkurovat lidem, a někdy vynikat, ale svět není úhledně rozdělen do jediných problémových otázek. “
"Nick Bostrom je profesionální děsivý monger." Úlohou jeho institutu je najít existenciální hrozby pro lidstvo. Vidí je všude. Jsem v pokušení ho označit za „Donalda Trumpa“ AI. “

Rodney Brooks, bývalý ředitel MIT Computer Science and Artificial Intelligence Laboratory, měl pro Bolstroma také tvrdá slova:

Není to jen AI. Není zvláště odborníkem na AI než na hledání mimozemského života. Ale to je to, co dělá. To je jeho schtick. Takže pokud jde o ostatní - a včetně Nicka - žádný z těchto lidí, kteří se tím obávají, nikdy sám nepracoval v AI. Byli venku. Totéž platí pro Max Tegmark; platilo to o lordu Martinovi Reesovi… Chybí jim, jak je to těžké.

Dále říká, že lidé mají tendenci antropomorfizovat, co počítače dělají. Takže když vidíte neuronovou síť detekovat lidskou tvář, myslíte si, že ví, kdo jsem! Ale nezná vás. Nic to neví. Není to ani věc. Je to řada čísel, která představují matematické transformace na číslech představujících pixely. Skok z toho na konec lidstva je tak absurdní, že se téměř nestojí za to diskutovat.

Cynický názor je samozřejmě takový, že vědci by raději upřednostňovali dopady své technologie, aby nepřitahovali těžkou regulační ruku. Ale tento argument mi připadá spiklenecký. Jako by se všichni badatelé umělé inteligence stali indoktrinovanými do transhumanistické společnosti, která ihned po vstupu odhazuje obavy o lidstvo. Trans-humanisté připisovaní sebe sama jsou největšími poplašníky.

Proč někdo věří, že Singularity je blízko?

Hlavním viníkem je Mooreův zákon. Mooreův zákon uvádí, že počet tranzistorů v integrovaném obvodu se zdvojnásobuje asi každé dva roky. Od šedesátých let je stabilní, i když mnoho prognostiků, včetně Gordona Moora, očekává, že zákon skončí kolem roku 2025.

Zastánci singularity se dívají na hrubé míry toho, co mozek dělá, a převádějí je do matematických výpočtů. Nějaký člověk nějak změřil lidský mozek tak, že běžel 10 ^ n výpočtů za sekundu a couval s datem, kdy jsme zasáhli to pomocí Mooreova zákona.

Myšlenka, že lidé jsou prostě kalkulačky, mě zasahuje stejně jako antihumánní. Nikdo nemá tušení, co se děje v lidském mozku. Není to procesorová síla, která nikoho brání v mapování mozku. Termín „neuronová síť“ pro popis architektury strojového učení byl špatnou volbou. Podobně nemáme ani tušení, co se děje v mozku myši, a podle surového zpracovatelského výkonu bychom to nyní měli popraskat. Pokud bychom to udělali, mohli bychom jen spustit simulace myší a vyřadit laboratorní myši z jejich utrpení.

Mám ještě co říct o pesimistických a optimistických davech, které mohu prozkoumat později. Irónie je taková, že jedna věc, na které se obě strany shodnou, singularita je blízko, může být jejich největší chybou.