Singularity Institute for Artificial Intelligence

21-10-2023

The Singularity Institute for Artificial Intelligence (SIAI, Институт сингулярности) — некоммерческая организация, основной целью которой является создание безопасного искусственного интеллекта, а также изучение потенциальных опасностей и возможностей, которые могут появиться при создании ИИ. Организация поддерживает идеи, первоначально выдвинутые I. J. Good и Вернором Винджем, касательно «интеллектуального взрыва» или сингулярности, и идеи Елиезер Юдковски о создании дружественного ИИ. Юдковски исследует в Институте сингулярности в США проблемы глобального риска, которые может создать будущий сверхчеловеческий ИИ, если его не запрограммировать на дружественность к человеку.[1]

Одним из директоров организации является изобретатель и футуролог Рей Курцвейл. В штате консультантов организации оксфордский философ Ник Бостром, геронтолог Обри ди Грей, соучредитель PayPal Peter Thiel, и сооснователь Foresight Nanotech Institute Кристина Peterson.

Организация имеет представительства в США и Канаде.

История

Первым проектом SIAI стал «аннотационный язык программирования» (annotative programming language) Flare[2], разработка которого началась в июле 2001 года. Язык разрабатывался для создания с помощью него зерна ИИ. Менее чем через год проект был закрыт.

В 2002 году на сайте SIAI публикуется препринт главы «Уровни организации общего интеллекта»[3] из книги «Реальный ИИ: Новые подходы к искусственному общему интеллекту» (под редакцией Ben Goertzel (англ.) и Cassio Pennachin). Позже в этом же году, SIAI опубликовал две основные главы введения — «Что есть сингулярность»[4] и «Почему следует работать над приближением сингулярности»[5].

В 2003 году представитель организации Майкл Anissimov выступил с докладом на международной конференции Transvision 2003, проходившей в Йельском университете.

В 2004 году SIAI был создан сайт AsimovLaws.com[6], созданный для обсуждения этики ИИ в контексте проблем, затронутых в фильме «Я, Робот», выпущенном лишь два дня спустя. В начале следующего года главный офис Института переезжает из Атланты в Силиконовую долину.

В феврале 2006 года Институт формирует фонд в размере 200 тыс. долл.[7] Основная часть фонда (100 тыс. долл.) была получена от соучредителя Paypal Peter Thiel. В мае 2006 года на стенфордском саммите сингулярности принято решение о расширении штата сотрудников Института.

Институт, вместе с KurzweilAI.net и Центром по изучению языка и информации, спонсирует стендфордский саммит сингулярности. Директор Института, Peter Thiel, выступает в качестве ведущего саммита.[8] Саммит собрал порядка 1300 специалистов. Среди участников саммита были Рей Курцвейл, Ник Бостром, Кори Доктороу, Эрик Дрекслер, Дуглас Хофштадтер, Steve Jurvetson (англ.), Bill McKibben (англ.), Макс Мор (англ.), Джон Смарт (англ.), Sebastian Thrun (англ.) и Элизер Юдковски.

В 2007 году аналогичный саммит прошёл во Дворце Театра Искусств, Сан-Франциско. Третий саммит сингулярности состоялся 5 октября 2008 года в Сан-Хосе.

Институт финансирует проект Open Cognition Framework (OpenCog), целью которого является предоставление «исследователям и разработчикам программного обеспечения общей платформы для построения программ с элементами искусственного интеллекта.»

Примечания

  1. ИИ как фактор глобального риска
  2. Проект flarelang на сайте SourceForge.net
  3. Levels of Organization in General Intelligence
  4. What is the Singularity? | Singularity Institute for Artificial Intelligence
  5. Why Work Toward the Singularity? | Singularity Institute for Artificial Intelligence
  6. 3 Laws Unsafe — Asimov’s Three Laws of Robotics & I, Robot
  7. Singularity Institute for Artificial Intelligence | AI
  8. Smarter than thou? San Francisco Chronicle, 12 мая 2006

Ссылки

  • Официальный сайт
  • Стенфордский саммит Сингулярности
  • Саммит Сингулярности 2008


Singularity Institute for Artificial Intelligence.

© 2011–2023 stamp-i-k.ru, Россия, Барнаул, ул. Анатолия 32, +7 (3852) 15-49-47