Юдковски, Елиезер

08-05-2023

Элиезер Юдковски

Eliezer Yudkowsky at the 2006 Stanford Singularity Summit.
Дата рождения:

11 сентября 1979(1979-09-11) (33 года)

Научная сфера:

Искусственный интеллект

Место работы:

Singularity Institute for Artificial Intelligence

Элие́зер Шло́мо Юдко́вски (англ. Eliezer S. Yudkowsky, 11 сентября 1979) — американский специалист по искусственному интеллекту, исследующий проблемы технологической сингулярности и выступающий за создание Дружественного ИИ.[1]

Содержание

Научные интересы

Юдковски — сооснователь и научный сотрудник Института Сингулярности по созданию Искусственного Интеллекта Creating Friendly AI» 2001), статей «Уровни организации универсального интеллекта» («Levels of Organization in General Intelligence» , 2002), «Когерентная экстраполированная воля» («Coherent Extrapolated Volition» , 2004), и «Вневременная теория принятия решений» («Timeless Decision Theory» , 2010).[3] Его последними научными публикациями являются две статьи в сборнике «Риски глобальной катастрофы» (2008) под редакцией Ника Бострома, а именно «Искусственный интеллект как позитивный и негативный фактор глобального риска» и «Когнитивные искажения в оценке глобальных рисков».[4][5][6] Юдковский не обучался в ВУЗах и является автодидактом без формального образования в области ИИ.[7]

Юдковски исследует те конструкции ИИ, которые способны к самопониманию, самомодификации и рекурсивному самоулучшению («An Intuitive Explanation of Bayes' Theorem»[8].

Юдковски был, вместе с Overcoming Bias (преодоление предубеждений). В начале 2009 года он участвовал в организации блога Less Wrong (менее неправ), нацеленного на оттачивание человеческой рациональности. После этого Overcoming Bias стал личным блогом Хансона. Материал, представленный на этих блогах, был организован в виде цепочек постов, которые смогли привлечь тысячи читателей — см. например, цепочку «теория развлечений» [1].

Он автор нескольких научно-фантастических рассказов, в которых он иллюстрирует некоторые темы, связанные с когнитивной наукой и рациональностью. В неакадемических кругах больше известен как автор [2].

Юдковски — один из ведущих западных трансгуманистов. Он смог привлечь внимание тысяч читателей своими принципиально новыми идеями. В частности, это его статьи о когнитивных искажениях в оценке глобальных рисков, которые открыли новый подход к этой проблеме. Многие ожидают, что Юдковски в своём институте сможет создать тот ИИ, который и приведёт человечество к позитивной сингулярности. Юдковски принадлежит идея о 5 уровнях шока будущего. Кроме того, он поставил эксперимент с ИИ в чёрном ящике (AI box experiment), в котором показал, что ИИ может уговорить человека выпустить этот ИИ из чёрного ящика, используя только текстовый канал коммуникации.[3]

Примечания

  1. Singularity Institute for Artificial Intelligence: Team. Singularity Institute for Artificial Intelligence. Архивировано из первоисточника 4 июля 2012. Проверено 16 июля 2009.
  2. Kurzweil, Ray The Singularity Is Near. — New York, US: Viking Penguin, 2005. — P. 599. — ISBN 0-670-03384-7
  3. Eliezer Yudkowsky Profile. Accelerating Future. Архивировано из первоисточника 4 июля 2012.
  4. Artificial Intelligence as a Positive and Negative Factor in Global Risk. Singularity Institute for Artificial Intelligence. Архивировано из первоисточника 4 июля 2012. Проверено 28 июля 2009.
  5. Cognitive Biases Potentially Affecting Judgement of Global Risks. Singularity Institute for Artificial Intelligence. Архивировано из первоисточника 4 июля 2012.
  6. Global Catastrophic Risks / Bostrom, Nick. — Oxford, UK: Oxford University Press, 2008. — P. 91–119, 308–345. — ISBN 978-0-19-857050-9
  7. GDay World #238: Eliezer Yudkowsky. The Podcast Network.(недоступная ссылка) Проверено 26 июля 2009.
  8. перевод

Ссылки

  • Our Molecular Future: How Nanotechnology, Robotics, Genetics and Artificial Intelligence Will Transform Our World by Douglas Mulhall, 2002, p. 321.
  • The Spike: How Our Lives Are Being Transformed By Rapidly Advancing Technologies by Damien Broderick, 2001, pp. 236, 265—272, 289, 321, 324, 326, 337—339, 345, 353, 370.
Статьи на русском
  • Е. Юдковски. Систематические ошибки в рассуждениях, потенциально влияющие на оценку глобальных рисков. http://www.proza.ru/texts/2007/03/08-62.html
  • Е. Юдковски. Искусственный интеллект как позитивный и негативный фактор глобального риска. http://www.proza.ru/texts/2007/03/22-285.html
  • Е. Юдковски. Вглядываясь в Сингулярность. http://www.proza.ru/texts/2007/07/08-42.html
  • Е. Юдковски. Таблица критических ошибок Дружественного ИИ. http://www.proza.ru/texts/2007/07/09-228.html
  • Е. Юдковски. Три школы сингулярности. http://www.proza.ru/2009/02/05/432
  • Е. Юдковски. Уровни организации универсального интеллекта. http://www.proza.ru/2009/10/08/1136

Ссылки

В Викицитатнике есть страница по теме
Eliezer_Yudkowsky
  • Personal web site
  • Biography page at KurzweilAI.net
  • Biography page at the Singularity Institute
  • Downloadable papers and bibliography
  • Overcoming Bias — A blog to which Yudkowsky contributed regularly until 2009.
  • Less Wrong — «A community blog devoted to refining the art of human rationality» founded by Yudkowsky.
  • Переводы статей по рациональному мышлению на русский
  • Predicting The Future :: Eliezer Yudkowsky, NYTA Keynote Address — Feb 2003
  • Video discussions Yudkowsky has been involved in on Bloggingheads.tv
  • Eliezer Yudkowsky on The Agenda with Steve Paikin discussion panel, «Robotics Revolution and the Future of Evolution» at the Quantum to Cosmos Festival, with Hod Lipson, Michael Belfiore, Cory Doctorow
  • Less Wrong Q&A with Eliezer Yudkowsky: Video Answers


Юдковски, Елиезер.

© 2011–2023 stamp-i-k.ru, Россия, Барнаул, ул. Анатолия 32, +7 (3852) 15-49-47