Может случиться и то, что среди вопросов найдутся такие, которые «выявят принципиальное НЕПОНИМАНИЕ» «китайской комнатой» всех текстов, и это мне видится возможным, потому что Джону Сёрлу и его респондентам казалось странным (на мой взгляд), что так называемая «strong AI», или гипотеза о возможности прохождения машиной теста Тьюринга, решается в рамках «тайны китайской комнаты» отрицательно: машина, которую изображает комната, ничего не понимает и, несмотря на это, отвечает на вопросы так, как будто бы она их понимала.
Ключ к ЭТОМУ находится в «пакете вопросов». <…> Так как вопросы «направленно сжаты» текстом рассказа, то тем самым они предопределены, то есть они вероятностно продетерминированы в рамках такого «fuzzy set», такого размытого собрания, которое имеет направляющую стрелу, уже a priori ориентирующую его на «такое-сякое понимание». <…> Так пусть Сёрл, вместо того чтобы описывать мысленные эксперименты, уничтожающие ложный миф об умных компьютерах, позволит закрыть себя в комнате, пусть ему всунут этот шрифт и этот рассказ, всего лишь скромно ограниченный стихами «Wlazі kotek na płotek i mruga, krótka to piosenka nie długa», пусть спросят (по-китайски, на карточках) о виде плетня, о породе кота и о том, имеет ли какое-то особое значение, когда кот моргает, или скорее всего он моргает просто так, а по-польски только для рифмы. И пусть Сёрл ответит более или менее дельно. Тексты такого рода, не хвастаясь, я могу производить возами, и из этого абсолютно ничего не следует. <…> Люди, занимающиеся АI, пока только узнали, что для игры в вопросы и ответы нужно создавать тщательные ситуационные РАМКИ («frames»), но также известно из опыта сегодняшнего дня, что можно спросить кухарку о том, как она делает поджарку, но скорее всего не следует ожидать её осмысленного ответа на вопрос, почему в поршневом двигателе сжигания новейших автомобилей нет двух клапанов (всасывающего и выхлопного), а только четыре или хотя бы три. Она ничего не скажет, потому что понятия не имеет, и это с «пониманием» или с «непониманием» грамматики, идиоматики, синтаксиса языка не имеет ничего общего. Чтобы понимать высказывание, следует ухватить его смысл и его смысловой радиус, и last but not least его специфическую предметную ориентацию.
Китайская комната Сёрла, как и моя puzzle, ничего не предопределяет, ничего не обещает, ничего не предетерминирует, ничего не «решает» раз и навсегда. <…> на особом месте в моей библиотеке находится книга 1924 года издания, написанная немецким ДОКТОРОМ (но не медицины), который математически, химически и физически доказал в ней полную невозможность космических полетов и даже получения ракетой ускорения, способного преодолеть гравитацию, чтобы она смогла выйти на околоземную орбиту. Это очень хорошее доказательство, «проведённое исключительно формальными средствами». О нём стоит помнить оппонентам искусственного интеллекта. Основным упреком против моего сведения «тайны китайской комнаты» к головоломке типа puzzle является чрезмерное упрощение дела. <…> Ранее Сёрл несколько вскружил голову тем, кому он описывал свой эксперимент, что это «китайщина» и т. п. Сейчас видно, что в принципе возможно при чисто формальном подходе (тоже складываются куски по их ФОРМЕ, а не по их смыслу) проведение эксперимента. Однако вместе с тем видно, на этот раз уже очень явно, что китаец в «английской комнате» действительно НИЧЕГО не понимает. Итак, КТО же понимает тексты в ОБОИХ случаях, в случае Сёрла и в моём? Конечно, тот, кто весь эксперимент — как первый, так и второй — выдумал, составил и запрограммировал. «Понимание» не находится ни в какой из комнат, ни в той «китайской» с англичанином, ни в «английской» с китайцем, <…> существенным является исключительно поведение складывающего, который и здесь и там ничего не понимает из текста, и не важно, видит ли он текст и не понимает его, не зная китайского, или же не видит текст (китаец), потому что если бы он его видел, ТО ТОЖЕ БЫ НЕ понял, если уж он должен соединять формы, а не символы. Короче говоря, эксперимент вводит нас в заблуждение, при этом Хофштадтер в своей книге[1] ТОЖЕ так считает, но зря усложнил объяснения. Не в том загвоздка, что китайское письмо несравненно труднее было бы приспосабливать к китайскому (НАПИСАННЫЕ буквы для невежды могут восприниматься графически как очень разные, например, латинская буква «f» формально тождественна «F»), но загвоздка в том, что работа всегда асемантично формальна. Следовательно, «понимание» в самих текстах не участвует вообще и a fortiori нет и речи о присутствующем «сознании». Возможен ли искусственный интеллект, покажет будущее. С обсуждаемым «reductio ad absurdum» это будущее НЕ ИМЕЕТ НИЧЕГО ОБЩЕГО.