Eliezer Shlomo Yudkovsky je americký specialista na umělou inteligenci, který studuje problémy technologické jedinečnosti a obhajuje vytvoření Friendly AI. Je autorem několika sci-fi příběhů, ve kterých ilustruje některá témata týkající se kognitivní vědy a racionality.
Eliezer Yudkowski: životopis
Eliezer Shlomo Yudkovsky je jedním z nejaktivnějších racionalistů moderní Ameriky, počítačový výzkumník a popularizátor myšlenky „přátelské umělé inteligence“.
Narodil se 11. září 1979. Spoluzakladatel a výzkumný pracovník v nevládní výzkumné organizaci Ústav pro výzkum strojní inteligence, která vydává jeho knihy. Eliezer Yudkovsky je autorem filosofického románu Harryho Pottera a metod racionalismu, který byl v letech 2010 až 2015 zveřejněn v částech na internetu. V tom vyrůstá Harry v rodině vědce z Oxfordu a než odcestuje do Bradavic, naučí se od něj metody racionálního myšlení.
Pokud je známo, nemá žádnou souvislost s kruhem „spekulativních realistů“. Jeho jméno se často zmiňuje v souvislosti s Robinem Hansonem, několik let (od roku 2006 do roku 2009) byli dva hlavní autoři blogu „Překonání předsudků“, který existoval na penězích Institutu pro budoucí lidstvo v Oxfordu.
Někdy je jméno Yudkovsky slyšet v souvislosti s Raymondem Kurzweilem. Je filosofickým představitelem společenství technogeeků, nepřístupného a nepochopitelného, tedy pro většinu humanitární veřejnosti, do níž patří téměř všichni čtenáři spekulativních realistů. Není divu, protože se často obrací k logickému a matematickému jazyku, pravděpodobnostním a statistickým závěrům, vystaveným pomocí vzorců a tabulek.
Vědecké zájmy
Yudkovsky je spoluzakladatelem a výzkumným pracovníkem institutu Singularity Institute for Artificial Intelligence Institute (SIAI). Významně přispěl k rozvoji institutu. Je autorem knihy „Vytváření přátelské umělé inteligence“ (2001), článků „Úrovně organizace v obecné inteligenci“ (2002), „Koherentní extrapolovaná vůle“ („Koherentní extrapolovaná vůle“), 2004) a The Timeless Decision Theory (2010). Jeho nejnovější vědecké publikace jsou dva články ve sbírce „Rizika globální katastrofy“ (2008) vydané Nickem Bostromem, konkrétně „Umělá inteligence jako pozitivní a negativní globální rizikový faktor“ a „Kognitivní narušení při hodnocení globálních rizik“. Judkovskij nestudoval na vysokých školách a jedná se o auto-didaktiku bez formálního vzdělávání v oboru AI.
Yudkovsky zkoumá designy umělé inteligence, které jsou schopny sebepochopení, sebezměny a rekurzivního sebezlepšování (Seed AI), stejně jako architektury umělé inteligence, které budou mít stabilní a pozitivní motivační strukturu (Friendly Artificial Intelligence). Kromě své vědecké práce je Yudkovsky známý svými vysvětlením složitých modelů v neakademickém jazyce, který je přístupný širokému okruhu čtenářů, například v jeho článku „Intuitivní vysvětlení Bayesovy věty“.
Yudkovsky byl spolu s Robinem Hansonem jedním z hlavních autorů blogu Overcoming Bias (překonávání předsudků). Začátkem roku 2009 se podílel na organizaci blogu Méně špatný, zaměřeného na „rozvoj lidské racionality a překonání kognitivních deformací“. Poté se Overcoming Bias stal Hansonovým osobním blogem. Materiál prezentovaný na těchto blogech byl organizován jako řetězy příspěvků, které přilákaly tisíce čtenářů - viz například řetězec teorie zábavy.
Yudkovsky je autorem několika sci-fi příběhů, ve kterých ilustruje některá témata týkající se kognitivní vědy a racionality.
Kariéra
- 2000. Yudkovsky zakládá Institut singularity Institute (později přejmenovaný na MIRI).
- 2006. Yudkovsky se připojil ke kolektivnímu blogu Overcoming Bias a začal psát texty, které se později staly Chains.
- 2009. Na základě záznamů Yudkovského o překonání zkreslení je vytvořen slavný kolektivní blog LessWrong.com.
- 2010-2015. Yudkovsky píše GPiMRM.
- 2013. Yudkovsky zveřejňuje nejnovější příspěvky na webu LessWrong.com a přestává psát na webu. Jak 2017, Yudkovsky publikuje většinu veřejně dostupných textů na Facebooku a Arbitalu
Myšlenkový experiment
Představte si neuvěřitelně inteligentní umělou superinteligenci uzamknutou ve virtuálním světě - řekněme jen v šňupací krabici. Nevíte, jestli bude střední, přátelský nebo neutrální. Vše, co víte, je, že se chce dostat z krabice a že s ním můžete komunikovat prostřednictvím textového rozhraní. Pokud je AI opravdu superinteligentní, můžete s ním mluvit pět hodin a nepodlehnout jeho přesvědčování a manipulaci - neotevírat šňupací tabák?
Tento myšlenkový experiment navrhl Eliezer Yudkowsky, výzkumný pracovník na Engineering Research Institute of Engineering (MIRI). MIRI má mnoho vědců, kteří zkoumají rizika rozvoje umělé superintelligence; ačkoliv se to ještě neobjevilo, přitahuje pozornost a podněcuje debatu.
Yudkovsky tvrdí, že umělá superintelligence může říci vše, co vás může přesvědčit: pečlivé zdůvodnění, hrozby, podvod, budování vztahu, podvědomý návrh atd. S rychlostí světla vytváří AI zápletku, zkoumá slabiny a určuje, jak je nejsnadnější přesvědčit vás. Jak uvedl teoretik existenční hrozby Nick Bostrom, „musíme věřit, že superintelligence dokáže dosáhnout všeho, co si stanoví jako svůj cíl.“
Experiment AI snuffbox AI zpochybňuje naši schopnost kontrolovat, co bychom mohli vytvořit. Také nám umožňuje pochopit poněkud bizarní možnosti toho, co nevíme o naší vlastní realitě.