Элиезер Юдковский

Материал из Циклопедии
Перейти к навигации Перейти к поиску

Элиезер Шломо Юдковски

Eliezer Yudkowsky, Stanford 2006 (square crop).jpg


Дата рождения
11 сентября 1979 года
Место рождения
Чикаго, США











Элиезер Юдковский (англ. Eliezer Yudkowsky) — американский исследователь искусственного интеллекта[1].

Известен как соавтор книги If Anyone Builds It, Everyone Dies ("Если кто-то это создаст, умрут все"), в которой подробно описываются потенциальные угрозы, создаваемые для человечества искусственным интеллектом.

Ранний период[править]

Появился на свет в религиозной семье, из-за чего занимался самообразованием.

Карьера[править]

В 2000 году основал Machine Intelligence Research Institute (MIRI).

Автор книги «Создание дружественного ИИ», статей «Уровни организации универсального интеллекта», «Когерентная экстраполированная воля» и «Вневременная теория принятия решений». Написал две статьи в сборнике «Риски глобальной катастрофы» (2008) под редакцией Ника Бострома, а именно «Искусственный интеллект как позитивный и негативный фактор глобального риска» и «Когнитивные искажения в оценке глобальных рисков».

В феврале 2009 года основал блог LessWrong о развитии рационального мышления и преодолении когнитивных искажений.

В статье 2023 года для журнала Time Юдковски обсуждал риски, связанные с ИИ, и выступал за заключение международных соглашений по их ограничению, включая полную остановку разработки ИИ.

В 2025 году вместе с Нейтом Соарешем Юдковски написал книгу "Если кто-нибудь это построит, все умрут", в которой описывает сценарии, где «сверхразум» может целенаправленно уничтожить человечество, чтобы предотвратить появление конкурентов, или люди могут стать "сопутствующими жертвами" в ходе реализации целей ИИ. Среди возможных угроз физические ограничения планеты: например, неконтролируемое строительство термоядерных станций и дата-центров может привести к глобальному перегреву. Юдковски также отверг идеи, что современные чат-боты способны демонстрировать «прогрессивные взгляды» или политические предубеждения. "Есть принципиальная разница между тем, чтобы научить систему говорить определенным образом, и тем, чтобы она действовала так же, когда станет умнее вас", - отметил Юдковски. Он подчеркнул, что даже хитроумное программирование не гарантирует безопасность ИИ: "Даже если кто-то придумает способ заставить сверхум любить или защищать нас, попасть в эту узкую цель с первой попытки не удастся. А второго шанса не будет - все погибнут". Юдковский и Соарес утверждают, что создание ИИ, превосходящего человеческий разум, почти неизбежно приведет к катастрофе.

Труды[править]

  • Yudkowsky, Eliezer (2007). "Levels of Organization in General Intelligence". Artificial General Intelligence. Berlin: Springer. doi:10.1007/978-3-540-68677-4_12
  • Yudkowsky, Eliezer (2008). "Cognitive Biases Potentially Affecting Judgement of Global Risks". In Bostrom, Nick; Ćirković, Milan (eds.). Global Catastrophic Risks. Oxford University Press. ISBN 978-0199606504.
  • Yudkowsky, Eliezer (2008). "Artificial Intelligence as a Positive and Negative Factor in Global Risk". In Bostrom, Nick; Ćirković, Milan (eds.). Global Catastrophic Risks. Oxford University Press. ISBN 978-0199606504.
  • Yudkowsky, Eliezer (2011). "Complex Value Systems in Friendly AI". Artificial General Intelligence: 4th International Conference, AGI 2011, Mountain View, CA, USA, August 3–6, 2011. Berlin: Springer.
  • Yudkowsky, Eliezer (2012). "Friendly Artificial Intelligence". In Eden, Ammon; Moor, James; Søraker, John; et al. (eds.). Singularity Hypotheses: A Scientific and Philosophical Assessment. The Frontiers Collection. Berlin: Springer. pp. 181–195. doi:10.1007/978-3-642-32560-1_10. ISBN 978-3-642-32559-5.
  • Bostrom, Nick; Yudkowsky, Eliezer (2014). "The Ethics of Artificial Intelligence". In Frankish, Keith; Ramsey, William (eds.). The Cambridge Handbook of Artificial Intelligence. New York: Cambridge University Press. ISBN 978-0-521-87142-6.
  • LaVictoire, Patrick; Fallenstein, Benja; Yudkowsky, Eliezer; Bárász, Mihály; Christiano, Paul; Herreshoff, Marcello (2014). "Program Equilibrium in the Prisoner's Dilemma via Löb's Theorem". Multiagent Interaction without Prior Coordination: Papers from the AAAI-14 Workshop. AAAI Publications. Archived from the original on April 15, 2021. Retrieved October 16, 2015.
  • Soares, Nate; Fallenstein, Benja; Yudkowsky, Eliezer (2015). "Corrigibility". AAAI Workshops: Workshops at the Twenty-Ninth AAAI Conference on Artificial Intelligence, Austin, TX, January 25–26, 2015. AAAI Publications.

Также написал ряд научно-фантастических рассказов.

Источники[править]