Eliezer Shlomo Yudkowsky (* 11. September 1979) ist ein US-amerikanischer Autor. Er beschäftigt sich mit Entscheidungstheorie und den Folgen der Entwicklung von Künstlicher Intelligenz. Er lebt in Redwood City, Kalifornien.

Leben

Yudkowsky beendete seine Schulausbildung, als er 12 Jahre alt war. Er ist seither Autodidakt und hat keine formale Ausbildung im Bereich der Künstlichen Intelligenz. Er gründete im Jahr 2000 zusammen mit Brian und Sabine Atkins die Non-Profit-Organisation Singularity Institute for Artificial Intelligence (SIAI), welche seit Ende Januar 2013 Machine Intelligence Research Institute (MIRI) heißt. Er ist dort weiterhin als Forscher angestellt. Er hat 2013 Brienne Yudkowsky geheiratet und lebt mit ihr in einer offenen Ehe.

Werk

Yudkowsky versucht nach eigenen Angaben eine Theorie zu entwickeln, die es ermöglicht, eine Künstliche Intelligenz mit reflexivem Selbstverständnis zu erschaffen, welche zudem in der Lage ist, sich selbst zu modifizieren und rekursiv zu verbessern, ohne dabei ihre ursprüngliche Präferenzen, insbesondere Moral und Ethik, zu verändern. Der von ihm verwendete Begriff „Friendly AI“ beschreibt eine künstliche Intelligenz, die menschliche Werte vertritt und keine negativen Auswirkungen oder gar eine Vernichtung der Menschheit mit sich zieht. Mittlerweile vertritt er jedoch die Ansicht, dass künstliche Intelligenz die Menschheit vernichten wird und der einzige Weg dies zu stoppen eine große internationale Zusammenarbeit wäre, die alles Menschenmögliche unternehmen müsste, um den Betrieb und die Weiterentwicklung künstlicher Intelligenz zu stoppen. Neben seiner Theorie hat Yudkowsky außerdem einige Einführungen in philosophische Themen geschrieben, wie zum Beispiel den Text „An Intuitive Explanation of Bayes' Theorem“ (deutsch „Eine intuitive Erklärung des Satz von Bayes“).

OvercomingBias und LessWrong

Yudkowsky schrieb beim Blog OvercomingBias und im Frühjahr 2009 mitbegründete er den Blog LessWrong. Dort schrieb er Beiträge zu Themen wie Erkenntnistheorie, Künstliche Intelligenz, Fehler der menschlichen Rationalität und Metaethik.

Weitere Publikationen

Er trug zwei Kapitel zu dem von Nick Bostrom und Milan Cirkovic herausgegebenen Sammelband „Global Catastrophic Risk“ bei.

Yudkowsky ist zudem der Autor folgender Publikationen: „Creating Friendly AI“ (2001), „Levels of Organization in General Intelligence“ (2002), „Coherent Extrapolated Volition“ (2004) und „Timeless Decision Theory“ (2010).

Yudkowsky hat auch einige belletristische Werke geschrieben. Seine Harry-Potter-Fan-Fiction „Harry Potter and the Methods of Rationality“ ist momentan die beliebteste Harry-Potter-Geschichte der Website fanfiction.net. Sie behandelt Themen der Kognitionswissenschaft, Rationalität und Philosophie im Allgemeinen und wurde unter anderem durch den Science-Fiction-Autor David Brin und den Programmierer Eric S. Raymond positiv bewertet.

Sein neuestes Buch, „Inadequate Equilibria: Where and How Civilizations Get Stuck“, hat Yudkowsky im Jahr 2017 veröffentlicht. In dem Buch diskutiert er, welche Umstände Gesellschaften dazu führen, bessere oder schlechtere Entscheidungen zu treffen, um weithin anerkannte Ziele umzusetzen.

Literatur

  • Our Molecular Future: How Nanotechnology, Robotics, Genetics and Artificial Intelligence Will Transform Our World by Douglas Mulhall, 2002, p. 321.
  • The Spike: How Our Lives Are Being Transformed By Rapidly Advancing Technologies by Damien Broderick, 2001, pp. 236, 265–272, 289, 321, 324, 326, 337–339, 345, 353, 370.
  • Inadequate Equilibria: Where and How Civilizations Get Stuck

Einzelnachweise

  1. Machine Intelligence Research Institute: Our Team. Abgerufen am 22. November 2015.
  2. Eliezer Yudkowsky: About
  3. „GDay World #238: Eliezer Yudkowsky“. The Podcast Network. Abgerufen am 26. Juli 2009 (Memento vom 28. April 2012 im Internet Archive)
  4. „We are now the “Machine Intelligence Research Institute” (MIRI)“. Singularity Institute Blog. (Memento vom 6. Februar 2013 im Internet Archive)
  5. Kurzweil, Ray (2005). The Singularity Is Near. New York, US: Viking Penguin. p. 599
  6. Eliezer S. Yudkowsky. In: yudkowsky.net. Abgerufen am 10. Februar 2018.
  7. Coherent Extrapolated Volition, Mai 2004 (Memento vom 15. August 2010 im Internet Archive)
  8. Eliezer Yudkowsky – Will Superintelligent AI End the World?TED Talk mit Eliezer Yudkowsky zum Thema Risiken künstlicher Intelligenz. Abgerufen am 26. Juli 2023.
  9. Robin Hanson: About - Overcoming Bias. Abgerufen am 30. August 2023 (englisch).
  10. Nick Bostrom, Milan M. Ćirković (Hrsg.): Global Catastrophic Risks. Oxford University Press, Oxford (UK) 2008, S. 91–119, 308–345.
  11. Creating Friendly AI 1.0 (Memento vom 16. Juni 2012 im Internet Archive)
  12. Timeless Decision Theory (Memento vom 25. Oktober 2011 im Internet Archive)
  13. „Eliezer Yudkowsky Profile“. Accelerating Future (Memento vom 19. November 2011 im Internet Archive)
  14. David Brin: A secret of college life... plus controversies and science! 21. Juni 2010, abgerufen am 25. Januar 2023 (englisch).
  15. Eric S. Raymond: Harry Potter and the Methods of Rationality. 6. Juli 2010, abgerufen am 25. Januar 2023 (englisch).
  16. Inadequate Equilibria by Eliezer Yudkowsky. Abgerufen am 20. Mai 2018 (amerikanisches Englisch).
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.