08-05-2023
Элиезер Юдковски | |
Eliezer Yudkowsky at the 2006 Stanford Singularity Summit. |
|
Дата рождения: |
11 сентября 1979 (33 года) |
---|---|
Научная сфера: | |
Место работы: |
Элие́зер Шло́мо Юдко́вски (англ. Eliezer S. Yudkowsky, 11 сентября 1979) — американский специалист по искусственному интеллекту, исследующий проблемы технологической сингулярности и выступающий за создание Дружественного ИИ.[1]
Содержание |
Юдковски — сооснователь и научный сотрудник Института Сингулярности по созданию Искусственного Интеллекта Creating Friendly AI» 2001), статей «Уровни организации универсального интеллекта» («Levels of Organization in General Intelligence» , 2002), «Когерентная экстраполированная воля» («Coherent Extrapolated Volition» , 2004), и «Вневременная теория принятия решений» («Timeless Decision Theory» , 2010).[3] Его последними научными публикациями являются две статьи в сборнике «Риски глобальной катастрофы» (2008) под редакцией Ника Бострома, а именно «Искусственный интеллект как позитивный и негативный фактор глобального риска» и «Когнитивные искажения в оценке глобальных рисков».[4][5][6] Юдковский не обучался в ВУЗах и является автодидактом без формального образования в области ИИ.[7]
Юдковски исследует те конструкции ИИ, которые способны к самопониманию, самомодификации и рекурсивному самоулучшению («An Intuitive Explanation of Bayes' Theorem»[8].
Юдковски был, вместе с Overcoming Bias (преодоление предубеждений). В начале 2009 года он участвовал в организации блога Less Wrong (менее неправ), нацеленного на оттачивание человеческой рациональности. После этого Overcoming Bias стал личным блогом Хансона. Материал, представленный на этих блогах, был организован в виде цепочек постов, которые смогли привлечь тысячи читателей — см. например, цепочку «теория развлечений» [1].
Он автор нескольких научно-фантастических рассказов, в которых он иллюстрирует некоторые темы, связанные с когнитивной наукой и рациональностью. В неакадемических кругах больше известен как автор [2].
Юдковски — один из ведущих западных трансгуманистов. Он смог привлечь внимание тысяч читателей своими принципиально новыми идеями. В частности, это его статьи о когнитивных искажениях в оценке глобальных рисков, которые открыли новый подход к этой проблеме. Многие ожидают, что Юдковски в своём институте сможет создать тот ИИ, который и приведёт человечество к позитивной сингулярности. Юдковски принадлежит идея о 5 уровнях шока будущего. Кроме того, он поставил эксперимент с ИИ в чёрном ящике (AI box experiment), в котором показал, что ИИ может уговорить человека выпустить этот ИИ из чёрного ящика, используя только текстовый канал коммуникации.[3]
Юдковски, Елиезер.