Элиезер Юдковский
Элиезер Юдковский (англ. Eliezer Yudkowsky) — американский исследователь искусственного интеллекта[1].
Известен как соавтор книги If Anyone Builds It, Everyone Dies ("Если кто-то это создаст, умрут все"), в которой подробно описываются потенциальные угрозы, создаваемые для человечества искусственным интеллектом.
Ранний период[править]
Появился на свет в религиозной семье, из-за чего занимался самообразованием.
Карьера[править]
В 2000 году основал Machine Intelligence Research Institute (MIRI).
Автор книги «Создание дружественного ИИ», статей «Уровни организации универсального интеллекта», «Когерентная экстраполированная воля» и «Вневременная теория принятия решений». Написал две статьи в сборнике «Риски глобальной катастрофы» (2008) под редакцией Ника Бострома, а именно «Искусственный интеллект как позитивный и негативный фактор глобального риска» и «Когнитивные искажения в оценке глобальных рисков».
В феврале 2009 года основал блог LessWrong о развитии рационального мышления и преодолении когнитивных искажений.
В статье 2023 года для журнала Time Юдковски обсуждал риски, связанные с ИИ, и выступал за заключение международных соглашений по их ограничению, включая полную остановку разработки ИИ.
В 2025 году вместе с Нейтом Соарешем Юдковски написал книгу "Если кто-нибудь это построит, все умрут", в которой описывает сценарии, где «сверхразум» может целенаправленно уничтожить человечество, чтобы предотвратить появление конкурентов, или люди могут стать "сопутствующими жертвами" в ходе реализации целей ИИ. Среди возможных угроз физические ограничения планеты: например, неконтролируемое строительство термоядерных станций и дата-центров может привести к глобальному перегреву. Юдковски также отверг идеи, что современные чат-боты способны демонстрировать «прогрессивные взгляды» или политические предубеждения. "Есть принципиальная разница между тем, чтобы научить систему говорить определенным образом, и тем, чтобы она действовала так же, когда станет умнее вас", - отметил Юдковски. Он подчеркнул, что даже хитроумное программирование не гарантирует безопасность ИИ: "Даже если кто-то придумает способ заставить сверхум любить или защищать нас, попасть в эту узкую цель с первой попытки не удастся. А второго шанса не будет - все погибнут". Юдковский и Соарес утверждают, что создание ИИ, превосходящего человеческий разум, почти неизбежно приведет к катастрофе.
Труды[править]
- Yudkowsky, Eliezer (2007). "Levels of Organization in General Intelligence". Artificial General Intelligence. Berlin: Springer. doi:10.1007/978-3-540-68677-4_12
- Yudkowsky, Eliezer (2008). "Cognitive Biases Potentially Affecting Judgement of Global Risks". In Bostrom, Nick; Ćirković, Milan (eds.). Global Catastrophic Risks. Oxford University Press. ISBN 978-0199606504.
- Yudkowsky, Eliezer (2008). "Artificial Intelligence as a Positive and Negative Factor in Global Risk". In Bostrom, Nick; Ćirković, Milan (eds.). Global Catastrophic Risks. Oxford University Press. ISBN 978-0199606504.
- Yudkowsky, Eliezer (2011). "Complex Value Systems in Friendly AI". Artificial General Intelligence: 4th International Conference, AGI 2011, Mountain View, CA, USA, August 3–6, 2011. Berlin: Springer.
- Yudkowsky, Eliezer (2012). "Friendly Artificial Intelligence". In Eden, Ammon; Moor, James; Søraker, John; et al. (eds.). Singularity Hypotheses: A Scientific and Philosophical Assessment. The Frontiers Collection. Berlin: Springer. pp. 181–195. doi:10.1007/978-3-642-32560-1_10. ISBN 978-3-642-32559-5.
- Bostrom, Nick; Yudkowsky, Eliezer (2014). "The Ethics of Artificial Intelligence". In Frankish, Keith; Ramsey, William (eds.). The Cambridge Handbook of Artificial Intelligence. New York: Cambridge University Press. ISBN 978-0-521-87142-6.
- LaVictoire, Patrick; Fallenstein, Benja; Yudkowsky, Eliezer; Bárász, Mihály; Christiano, Paul; Herreshoff, Marcello (2014). "Program Equilibrium in the Prisoner's Dilemma via Löb's Theorem". Multiagent Interaction without Prior Coordination: Papers from the AAAI-14 Workshop. AAAI Publications. Archived from the original on April 15, 2021. Retrieved October 16, 2015.
- Soares, Nate; Fallenstein, Benja; Yudkowsky, Eliezer (2015). "Corrigibility". AAAI Workshops: Workshops at the Twenty-Ninth AAAI Conference on Artificial Intelligence, Austin, TX, January 25–26, 2015. AAAI Publications.
Также написал ряд научно-фантастических рассказов.