Китайская комната

14-10-2023

Кита́йская ко́мната — мысленный эксперимент, описанный Джоном Сёрлем, в котором критикуется возможность моделирования человеческого понимания естественного языка, создания так называемого «сильного искусственного интеллекта». В частности является критикой теста Тьюринга.

Был предложен в 1980 году в статье «Minds, Brains, and Programs» («Разум, мозг и программы»).

Содержание

Мысленный эксперимент

В популярной статье «Is the Brain’s Mind a Computer Program?» («Является ли мозговое мышление компьютерной программой?»), опубликованной в 1990 году, Сёрль описывает эксперимент следующим образом (цитируется по русскому переводу: «В мире науки», 1990, № 3, с. 7-13):

Возьмём, например, какой-нибудь язык, которого вы не понимаете. Для меня таким языком является китайский. Текст, написанный по-китайски, я воспринимаю как набор бессмысленных каракулей. Теперь предположим, что меня поместили в комнату, в которой расставлены корзинки, полные китайских иероглифов. Предположим также, что мне дали учебник на английском языке, в котором приводятся правила сочетания символов китайского языка, причём правила эти можно применять, зная лишь форму символов, понимать значение символов совсем необязательно. Например, правила могут гласить: «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два».

Представим себе, что находящиеся за дверью комнаты люди, понимающие китайский язык, передают в комнату наборы символов и что в ответ я манипулирую символами согласно правилам и передаю обратно другие наборы символов. В данном случае книга правил есть не что иное, как «компьютерная программа». Люди, написавшие её, — «программисты», а я играю роль «компьютера». Корзинки, наполненные символами, — это «база данных»; наборы символов, передаваемых в комнату, это «вопросы», а наборы, выходящие из комнаты, это «ответы».

Предположим далее, что книга правил написана так, что мои «ответы» на «вопросы» не отличаются от ответов человека, свободно владеющего китайским языком. Например, люди, находящиеся снаружи, могут передать непонятные мне символы, означающие; «Какой цвет вам больше всего нравится?» В ответ, выполнив предписанные правилами манипуляции, я выдам символы мне также непонятные и означающие, что мой любимый цвет синий, но мне также очень нравится зелёный. Таким образом, я выдержу тест Тьюринга на понимание китайского языка. Но все же на самом деле я не понимаю ни слова по-китайски. К тому же я никак не могу научиться этому языку в рассматриваемой системе, поскольку не существует никакого способа, с помощью которого я мог бы узнать смысл хотя бы одного символа. Подобно компьютеру, я манипулирую символами, но не могу придать им какого бы то ни было смысла.

Формализация

В 1984 году Сёрль формулирует свою идею более формализованно. Он рассматривает следующие предпосылки:

  • Предпосылка 1: Мозг порождает разум.
  • Предпосылка 2: Синтаксиса недостаточно для существования семантики.
  • Предпосылка 3: Компьютерная программа полностью определяется своей синтаксической структурой.
  • Предпосылка 4: Человеческий разум оперирует смысловым содержанием (семантикой).

И делает заключения:

  • Заключение 1: Программы не являются сущностью разума и их наличия недостаточно для наличия разума.
  • Заключение 2: Тот способ, посредством которого человеческий мозг на самом деле порождает ментальные явления, не может сводиться лишь к выполнению компьютерной программы.
  • Заключение 3: То, что порождает разум, должно обладать по крайней мере причинно-следственными свойствами, эквивалентными соответствующим свойствам мозга.

Дискуссия

Мысленный эксперимент вызвал интенсивную дискуссию среди учёных. Существуют различные доводы против результатов, полученных Сёрлем:

  • Некоторые критики считают, что тест Тьюринга выдержал не человек, а система, состоящая из комнаты, книги правил и человека. Сёрль, по их мнению, отвлекает внимание от этого факта, концентрируясь на одном из компонентов системы, выполняющем в данном случае чисто механическую работу. Система из книги правил, человека и комнаты, по их мнению, является разумной и понимает китайский язык.
  • Другое мнение состоит в том, что никакой семантики не существует в принципе: всё, что происходит в мозгу, всего лишь манипулирование синтаксисом, которое осуществляется и в компьютерах.
  • По мнению Станислава Лема [1], понимание в самой «китайской комнате» действительно не существует, но оно есть в мозгу её создателя — того, кто разработал систему правил обращения с иероглифами для участника эксперимента. «Работа всегда асемантично формальна», и это не может быть основанием говорить об отсутствии понимания. Автор эксперимента должен был заранее предусмотреть все комбинации вопросов и ответов или придумать принцип подбора ответа на вопрос. В реальных условиях при создании предполагаемого искусственного интеллекта едва ли подобное будет возможно.

Литература

  • Searle, John. R. (1980) Minds, brains, and programs. Behavioral and Brain Sciences 3 (3): 417—457 (Джон Сёрль, статья «Разум, мозг и программы», 1980)
  • Джон Сёрль, книга «Minds, Brains, and Science» («Разум, мозг и наука», 1984)
  • Пол М. Черчленд и Патриция Смит Черчленд («Может ли машина мыслить?», «В мире науки», 1990, № 3, с. 14)
  • Searle, John. R. Is the Brain’s Mind a Computer Program?. Scientific American, Jan. 1990, pp. 26–31 (Джон Сирл, статья «Разум мозга — компьютерная программа?» (рус.) «В мире науки», 1990, № 3, с. 7-13)

Примечания

  1. «Тайна китайской комнаты» (Лем С. «Молох», М:. АСТ: Транзиткнига, 2005, с.246-255)

Китайская комната.

© 2011–2023 stamp-i-k.ru, Россия, Барнаул, ул. Анатолия 32, +7 (3852) 15-49-47