14-10-2023
Кита́йская ко́мната — мысленный эксперимент, описанный Джоном Сёрлем, в котором критикуется возможность моделирования человеческого понимания естественного языка, создания так называемого «сильного искусственного интеллекта». В частности является критикой теста Тьюринга.
Был предложен в 1980 году в статье «Minds, Brains, and Programs» («Разум, мозг и программы»).
Содержание |
В популярной статье «Is the Brain’s Mind a Computer Program?» («Является ли мозговое мышление компьютерной программой?»), опубликованной в 1990 году, Сёрль описывает эксперимент следующим образом (цитируется по русскому переводу: «В мире науки», 1990, № 3, с. 7-13):
Возьмём, например, какой-нибудь язык, которого вы не понимаете. Для меня таким языком является китайский. Текст, написанный по-китайски, я воспринимаю как набор бессмысленных каракулей. Теперь предположим, что меня поместили в комнату, в которой расставлены корзинки, полные китайских иероглифов. Предположим также, что мне дали учебник на английском языке, в котором приводятся правила сочетания символов китайского языка, причём правила эти можно применять, зная лишь форму символов, понимать значение символов совсем необязательно. Например, правила могут гласить: «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два».
Представим себе, что находящиеся за дверью комнаты люди, понимающие китайский язык, передают в комнату наборы символов и что в ответ я манипулирую символами согласно правилам и передаю обратно другие наборы символов. В данном случае книга правил есть не что иное, как «компьютерная программа». Люди, написавшие её, — «программисты», а я играю роль «компьютера». Корзинки, наполненные символами, — это «база данных»; наборы символов, передаваемых в комнату, это «вопросы», а наборы, выходящие из комнаты, это «ответы».
Предположим далее, что книга правил написана так, что мои «ответы» на «вопросы» не отличаются от ответов человека, свободно владеющего китайским языком. Например, люди, находящиеся снаружи, могут передать непонятные мне символы, означающие; «Какой цвет вам больше всего нравится?» В ответ, выполнив предписанные правилами манипуляции, я выдам символы мне также непонятные и означающие, что мой любимый цвет синий, но мне также очень нравится зелёный. Таким образом, я выдержу тест Тьюринга на понимание китайского языка. Но все же на самом деле я не понимаю ни слова по-китайски. К тому же я никак не могу научиться этому языку в рассматриваемой системе, поскольку не существует никакого способа, с помощью которого я мог бы узнать смысл хотя бы одного символа. Подобно компьютеру, я манипулирую символами, но не могу придать им какого бы то ни было смысла.
В 1984 году Сёрль формулирует свою идею более формализованно. Он рассматривает следующие предпосылки:
И делает заключения:
Мысленный эксперимент вызвал интенсивную дискуссию среди учёных. Существуют различные доводы против результатов, полученных Сёрлем:
Искусственный интеллект | ||
---|---|---|
Философия |
Тест Тьюринга • Китайская комната |
|
Направления | ||
Применение | ||
Исследователи |
Норберт Винер • Алан Тьюринг • В. М. Глушков • Г. С. Осипов • Д. Э. Попов • Д. А. Поспелов • М. Г. Гаазе-Рапопорт • Т. А. Гаврилова • В. Ф. Хорошевский • Г. С. Поспелов • Марвин Мински • Джон Маккарти • Фрэнк Розенблатт • Чарльз Бэббидж • Аллен Ньюэлл • Герберт Саймон • Ноам Хомский • Джуда Перл • Сеймур Паперт • Клод Шеннон • Джозеф Уайзенбаум • Патрик Винстон • В. К. Финн |
|
Организации |
Китайская комната.