Eliezer Shlomo Yudkovsky è uno specialista americano dell'intelligenza artificiale, che studia i problemi della singolarità tecnologica e sostiene la creazione di AI. È autore di diverse storie di fantascienza in cui illustra alcuni argomenti relativi alla scienza cognitiva e alla razionalità.
![Image Image](https://images.culturehatti.com/img/kultura-i-obshestvo/75/eliezer-yudkovski-biografiya-tvorchestvo-karera-lichnaya-zhizn.jpg)
Eliezer Yudkowski: biografia
Eliezer Shlomo Yudkovsky è uno dei razionalisti più attivi dell'America moderna, un ricercatore di computer e divulgatore dell'idea di "intelligenza artificiale amichevole".
Nato l'11 settembre 1979. Co-fondatore e ricercatore dell'istituto di ricerca non governativo Institute for Research on Machine Intelligence, che pubblica i suoi libri. Eliezer Yudkovsky è l'autore del romanzo filosofico Harry Potter e dei metodi del razionalismo, pubblicato in parti su Internet tra il 2010 e il 2015. In esso, Harry cresce nella famiglia di uno scienziato di Oxford e, prima di recarsi a Hogwarts, apprende da lui i metodi del pensiero razionale.
Per quanto è noto, non ha alcun legame con la cerchia dei "realisti speculativi". Il suo nome è spesso menzionato in relazione a Robin Hanson, per diversi anni (dal 2006 al 2009) sono stati i due principali autori del blog "Superare il pregiudizio", che esisteva sui soldi dell'Institute for Future Humanity di Oxford.
A volte il nome di Yudkovsky può essere ascoltato in relazione a Raymond Kurzweil. È un rappresentante filosofico della comunità dei tecno-geek, inaccessibile e incomprensibile, quindi, per la maggior parte del pubblico umanitario, a cui appartiene quasi tutti i lettori di realisti speculativi. Non è sorprendente, perché spesso si rivolge al linguaggio logico e matematico, alle conclusioni probabilistiche e statistiche, esposte usando formule e tabelle.
Interessi scientifici
Yudkovsky è co-fondatore e ricercatore presso l'Istituto di Singularity for Artificial Intelligence Institute (SIAI). Ha dato un grande contributo allo sviluppo dell'istituto. È autore del libro "Making Friendly AI" (2001), articoli "Levels of Organization in General Intelligence" (2002), "Coherent Extrapolated Volition" ("Coherent Extrapolated Volition", 2004) e The Timeless Decision Theory (2010). Le sue ultime pubblicazioni scientifiche sono due articoli nella raccolta "Rischi di una catastrofe globale" (2008) a cura di Nick Bostrom, ovvero "L'intelligenza artificiale come fattore di rischio globale positivo e negativo" e "Distorsione cognitiva nella valutazione dei rischi globali". Yudkovsky non ha studiato all'università ed è un auto-didatto senza educazione formale nel campo dell'IA.
Yudkovsky esplora progetti di intelligenza artificiale in grado di auto-comprensione, auto-modifica e auto-miglioramento ricorsivo (Seed AI), nonché architetture di intelligenza artificiale che avranno una struttura di motivazione stabile e positiva (Friendly Artificial Intelligence). Oltre al suo lavoro di ricerca, Yudkovsky è noto per le sue spiegazioni di modelli complessi in un linguaggio non accademico, accessibili a una vasta cerchia di lettori, ad esempio, vedi il suo articolo "Una spiegazione intuitiva del teorema di Bayes".
Yudkovsky, insieme a Robin Hanson, è stato uno dei principali autori del blog Overcoming Bias (superando i pregiudizi). All'inizio del 2009, ha partecipato all'organizzazione del blog Less Wrong, volto a "sviluppare la razionalità umana e superare le distorsioni cognitive". Successivamente, Superare il pregiudizio è diventato il blog personale di Hanson. Il materiale presentato su questi blog è stato organizzato come catene di post che hanno attirato migliaia di lettori - vedi, ad esempio, la catena della teoria dell'intrattenimento.
Yudkovsky è autore di diverse storie di fantascienza in cui illustra alcuni argomenti relativi alla scienza cognitiva e alla razionalità.
carriera
- 2000. Yudkovsky fonda l'Istituto di singolarità (in seguito ribattezzato MIRI).
- 2006. Yudkovsky si unisce al blog collettivo Overcoming Bias e inizia a scrivere testi che in seguito sono diventati catene.
- 2009. Basato sulle voci di Yudkovsky su Overcoming Bias, viene creato il famoso blog collettivo LessWrong.com.
- 2010-2015. Yudkovsky scrive GPiMRM.
- 2013. Yudkovsky pubblica gli ultimi post su LessWrong.com e smette di scrivere sul sito. A partire dal 2017, Yudkovsky pubblica la maggior parte dei testi disponibili al pubblico su Facebook e Arbital
Esperimento di pensiero
Immagina una superintelligenza artificiale incredibilmente intelligente chiusa in un mondo virtuale - diciamo, solo in una tabacchiera. Non sai se sarà cattivo, amichevole o neutrale. Tutto quello che sai è che vuole uscire dalla scatola e che puoi interagire con lui attraverso un'interfaccia di testo. Se l'IA è davvero superintelligente, puoi parlargli per cinque ore e non soccombere alla sua persuasione e manipolazione - non aprire la tabacchiera?
Questo esperimento mentale è stato proposto da Eliezer Yudkowsky, ricercatore presso l'Institute of Engineering Engineering (MIRI). MIRI ha molti scienziati che stanno esplorando i rischi dello sviluppo della superintelligenza artificiale; anche se non è ancora apparso, sta già attirando l'attenzione e alimentando un dibattito.
Yudkovsky sostiene che la superintelligenza artificiale può dire tutto ciò che può per convincerti: ragionamento attento, minacce, inganno, costruzione di rapporti, suggestioni inconsce e così via. Con la velocità della luce, l'IA costruisce un diagramma, sonda i punti deboli e determina come è più facile convincerti. Come ha affermato il teorico della minaccia esistenziale Nick Bostrom, "dobbiamo credere che la superintelligenza può raggiungere tutto ciò che si pone come obiettivo".
L'esperimento AI di Snuffbox mette in dubbio la nostra capacità di controllare ciò che potremmo creare. Ci fa anche comprendere le possibilità piuttosto bizzarre di ciò che non sappiamo della nostra stessa realtà.