Eliezer Yudkowski: Biografija, Ustvarjalnost, Kariera, Osebno življenje

Kazalo:

Eliezer Yudkowski: Biografija, Ustvarjalnost, Kariera, Osebno življenje
Eliezer Yudkowski: Biografija, Ustvarjalnost, Kariera, Osebno življenje

Video: Eliezer Yudkowski: Biografija, Ustvarjalnost, Kariera, Osebno življenje

Video: Eliezer Yudkowski: Biografija, Ustvarjalnost, Kariera, Osebno življenje
Video: Элиэзер Юдковски - Согласование с ИИ: почему это сложно и с чего начать 2024, November
Anonim

Eliezer Shlomo Yudkowski je ameriški strokovnjak za umetno inteligenco, ki raziskuje probleme tehnološke singularnosti in zagovarja ustvarjanje prijazne umetne inteligence. Je avtor več znanstvenofantastičnih zgodb, v katerih ilustrira nekatere teme, povezane s kognitivno znanostjo in racionalnostjo.

Eliezer Yudkowski
Eliezer Yudkowski

Eliezer Yudkowski: biografija

Eliezer Shlomo Yudkowsky je eden najaktivnejših racionalistov moderne Amerike, računalniški raziskovalec in popularizator ideje o "prijazni umetni inteligenci".

Rojen 11. septembra 1979. Soustanovitelj in raziskovalec na Inštitutu za raziskave strojne inteligence, nevladni raziskovalni organizaciji, ki objavlja njegove knjige. Eliezer Yudkowski je avtor filozofskega romana Harry Potter in metode racionalizma, ki je bil delno objavljen na internetu od 2010 do 2015. V njej Harry odrašča v družini oksfordskega znanstvenika in se pred potovanjem v Hogwarts od njega nauči metod racionalnosti.

Slika
Slika

Kolikor vemo, nima nobene povezave s krogom "špekulativnih realistov". Njegovo ime se pogosto omenja v povezavi z Robinom Hansonom, nekaj let (od 2006 do 2009) sta bila dva glavna avtorja bloga "Premagovanje predsodkov", ki ga je financiral Inštitut za prihodnost človeštva iz Oxforda.

Včasih je mogoče slišati ime Yudkowskega v zvezi z Raymondom Kurzweilom. Je filozofski predstavnik tehno-gikovske skupnosti, nedostopen in nerazumljiv, torej večini humanitarne javnosti, ki ji pripadajo skoraj vsi bralci špekulativnih realistov. Ni presenetljivo, ker se pogosto obrača na logično-matematični jezik, verjetnostne in statistične zaključke, izpostavljene s pomočjo formul in tabel.

Znanstveni interesi

Yudkowski je soustanovitelj in sodelavec na Inštitutu za umetno inteligenco Singularity (SIAI). Veliko je prispeval k razvoju inštituta. Je avtor knjige "Ustvarjanje prijazne AI" (2001), člankov "Ravni organiziranosti v splošni inteligenci" (2002), "Koherentna ekstrapolirana volja" 2004) in Teorija brezčasnega odločanja (2010). Njegove najnovejše znanstvene objave sta dva članka v Risks of Global Catastrophe (2008), ki ga je uredil Nick Bostrom, in sicer "Umetna inteligenca kot pozitivni in negativni dejavnik globalnega tveganja" in "Kognitivna pristranskost pri ocenjevanju globalnih tveganj". Yudkovsky ni študiral na univerzah in je avtodidakt brez formalne izobrazbe na področju umetne inteligence.

Yudkowsky raziskuje tiste konstrukte umetne inteligence, ki so sposobni samorazumevanja, samo-spreminjanja in rekurzivnega samo-izboljševanja (Seed AI), pa tudi tiste arhitekture umetne inteligence, ki bodo imele stabilno in pozitivno strukturo motivacije (prijazna umetna inteligenca). Poleg raziskovalnega dela je Yudkowski znan po svojih razlagah zapletenih modelov v neakademskem jeziku, dostopnem širokemu krogu bralcev, na primer glej njegov članek Intuitivna razlaga Bayesovega izrek.

Yudkowski je bil skupaj z Robinom Hansonom eden glavnih avtorjev bloga Overcoming Bias. V začetku leta 2009 je bil soustanovitelj bloga Less Wrong, katerega cilj je "razviti človeško racionalnost in premagati kognitivne pristranskosti". Po tem je premagovanje pristranskosti postalo Hansonov osebni blog. Gradivo, predstavljeno na teh spletnih dnevnikih, je bilo organizirano v poštne verige, ki so pritegnile na tisoče bralcev - glejte na primer nit "teorije zabave".

Yudkowsky je avtor več znanstvenofantastičnih zgodb, v katerih ilustrira nekatere teme, povezane s kognitivno znanostjo in racionalnostjo.

Slika
Slika

Kariera

  • 2000. Yudkowski ustanovi Inštitut za singularnost (kasneje preimenovan v MIRI).
  • 2006. Yudkowski se pridruži kolektivnemu blogu Overcoming Bias in začne pisati besedila, ki so kasneje postala "Chains".
  • 2009. Na podlagi objav Yudkowskega o premagovanju pristranskosti je nastal slavni kolektivni blog LessWrong.com.
  • 2010-2015. Yudkovsky piše GPiMRM.
  • 2013. Yudkowski objavi zadnje objave na LessWrong.com in preneha pisati na spletno mesto. Od leta 2017 Yudkowski objavlja večino javno dostopnih besedil na Facebooku in Arbitalu

Miselni eksperiment

Predstavljajte si neverjetno inteligentno umetno superinteligenco, ujeto v navideznem svetu - recimo, samo snuff box. Ne veste, ali bo hudoben, prijazen ali nevtralen. Vse, kar veste, je, da hoče ven iz burmutice in da lahko z njim komunicirate prek besedilnega vmesnika. Če je umetni inteligenc resnično superinteligenten, ali se boste lahko pet ur pogovarjali z njim in ne boste podlegli njegovemu prepričevanju in manipulaciji - da ne odprete burmutice?

Ta miselni eksperiment je predlagal Eliezer Yudkowski, raziskovalec na Raziskovalnem inštitutu za strojništvo (MIRI). Na MIRI je veliko znanstvenikov, ki preiskujejo tveganje za razvoj umetne superinteligence; čeprav se sploh še ni pojavil, že pridobiva pozornost in spodbuja razprave.

Yudkowsky trdi, da lahko umetna superinteligenca pove vse, kar lahko, da vas prepriča: skrbno sklepanje, grožnje, prevare, gradnja odnosov, podzavest itd. S svetlobno hitrostjo AI gradi zgodbo, preiskuje slabosti in določa najlažji način, da vas prepriča. Kot je rekel teoretik eksistencialne grožnje Nick Bostrom, "moramo domnevati, da lahko superinteligenca doseže vse, kar si zada."

Poskus AI snuff-box vzbuja dvome o naši sposobnosti nadzora nad tem, kaj bi lahko ustvarili. Zaradi tega tudi konceptualiziramo precej bizarne možnosti tega, česar o lastni resničnosti ne vemo.

Slika
Slika

Članki v ruščini

E. Yudkovsky. Sistematične napake pri sklepanju, ki lahko vplivajo na oceno globalnih tveganj. E. Yudkovsky. Umetna inteligenca kot pozitivni in negativni dejavnik globalnega tveganja. E. Yudkovsky. Pokukanje v singularnost. E. Yudkovsky. Prijazna tabela kritičnih napak AI. E. Yudkovsky. Tri šole singularnosti. E. Yudkovsky. Organizacijske ravni univerzalne inteligence.

Priporočena: