Китайская комната

Китайская комната – модель системы, разработанная Джоном Серлем, в которой критикуется возможность моделирования человеческого понимания естественного языка искусственными системами. В какой-то степени, китайская комната является критикой теста Тьюринга. Рассмотрим эту модель.

Для этого возьмем какой-нибудь язык, которого вы не понимаете. Например, китайский. Текст, написанный по-китайски, воспринимается как набор бессмысленных каракулей. Теперь предположим, что вас поместили в комнату, в которой расставлены корзинки, полные китайских иероглифов. Предположим также, что вам дали учебник на английском языке, в котором приводятся правила сочетания символов китайского языка, причем правила эти можно применять, зная лишь форму символов, понимать значение символов совсем необязательно. Например, правила могут гласить: «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два».

Представим себе, что за дверью комнаты находятся люди, понимающие китайский язык. Они передают в комнату наборы символов и что в ответ вы манипулируете символами согласно правилам и передаю обратно другие наборы символов. В данном случае книга правил есть не что иное, как «компьютерная программа». Люди, написавшие ее, — «программисты», а вы играете роль «компьютера». Корзинки, наполненные символами, — это «база данных»; наборы символов, передаваемых в комнату, это «вопросы», а наборы, выходящие из комнаты, это «ответы».

Предположим далее, что книга правил написана так, что ваши «ответы» на «вопросы» не отличаются от ответов человека, свободно владеющего китайским языком. Например, люди, находящиеся снаружи, могут передать непонятные вам символы, означающие; «Какой цвет вам больше всего нравится?» В ответ, выполнив предписанные правилами манипуляции, вы вернете символы, также непонятные и означающие, что мой любимый цвет синий, но мне также очень нравится зеленый.

Таким образом, вы выдержите тест Тьюринга на понимание китайского языка. Но на самом деле вы не понимаете ни слова по-китайски. К тому же вы никак не можете научиться этому языку в рассматриваемой системе, поскольку не существует никакого способа, с помощью которого вы могли бы узнать смысл хотя бы одного символа. Подобно компьютеру, вы манипулируете символами, но не можете придать им какого бы то ни было смысла.

Мысленный эксперимент вызвал интенсивную дискуссию среди ученых. Существуют различные доводы против результатов, полученных Серлем.

Некоторые критики считают, что тест Тьюринга выдержал не человек, а система, состоящая из комнаты, книги правил и человека. Серль, по их мнению, отвлекает внимание от этого факта, концентрируясь на одном из компонентов системы, выполняющем в данном случае чисто механическую работу. Система из книги правил, человека и комнаты, по их мнению, является разумной и понимает китайский язык.

Другое мнение состоит в том, что никакой семантики не существует в принципе: все, что происходит в мозгу, всего лишь манипулирование синтаксисом, которое осуществляется и в компьютерах.

 

20.06.2017









 
архив

подписка