Перейти к содержанию

Тайна китайской комнаты

Материал из Викицитатника

«Тайна китайской комнаты» (польск. Tajemnica chińskiego pokoju) — философско-критическое эссе Станислава Лема 1995 года. Дало название авторскому сборнику 1996 года.

Цитаты

[править]
  •  

… позволю себе перевести весь этот мысленный эксперимент в другой, более простой, который неплохо раскроет «тайну».
Возьмём так называемую «puzzle», которая при составлении в единое целое представляет какую-то картину или фотографию. <…> не важно, ЧТО там изображено, была бы только ДАНА натуралистическая реальность картины. Затем эта картина разрезается на маленькие, закрученные финтифлюшки-кусочки, из которых обычно такая головоломка (puzzle) складывается, обращая внимание исключительно на то, чтобы каждый кусочек отличался от другого формой настолько, чтобы их невозможно было сложить в удачное целое при ошибочной замене элементов местами. В конце мы складываем картину в коробку и трясём ею так, чтобы хорошо эти кусочки перемешать. Затем приходит наш экспериментатор, видит только «изнаночные стороны» этих картонных кусочков и должен из них сложить такое целое, чтобы каждый кусочек находился там, где надо. Это будет несколько трудоёмко, но возможно, если нельзя будет поменять местами эти кусочки благодаря их индивидуальной форме. Если сейчас мы перевернем полученное изображение картинкой кверху, то, конечно, увидим картину <…>, несмотря на то что тот, кто складывал кусочки, не имел ни малейшего понятия о том, что он складывает не бессмысленные формы в единое целое, а воссоздаёт определённый очень выразительный, однозначный ОБРАЗ. <…> Вместо картины там с таким же успехом может находиться надпись на <любом> из существующих на нашей планете 5000 языков <…>. Всё равно, что появится при переворачивании оборотной стороны сложенных как следует кусочков на сторону правильную, то есть «правую», но ведь вероятно, что тот, кто складывал, как и «компьютерная программа», НИЧЕГО не знал, то есть не имел понятия или даже абсолютно не понимал, ЧТО появится на обороте, и даже не имел представления о том, ЧТО там появится какая-то когерентная значимая целость. Является ли это аргументом против мнения, что компьютер всё же мог бы подобно человеку понимать, что он делает, выполняя очередные шаги, заданные инструкцией? По-моему, это имеет с «ниспровержением» тезиса о АI столько же общего, сколько и тезис, что из кремовых пирожных можно сложить надпись, отрицающую возможность извержения Этны. Одно ни на йоту не имеет ничего общего с другим.

 

… pozwolę sobie przełożyć cały ten myślowy eksperyment na inny, daleko prostszy, który „tajemnicę” nieźle zdemaskuje.
Bierzemy tak zwany puzzle, który jako składna całość ukazuje jakiś naturalistyczny obraz albo jakąś fotografię. <…> wszystko jedno, CO tam widać, byle naturalistyczna oczywistość obrazu była DANA. Następnie ten obraz rozcina się na takie małe, pokrętne fintifluszki–kawałki, z jakich zazwyczaj takie igraszki (puzzle) się składają, bacząc wyłącznie na to, żeby się formą każdy kawałek różnił od każdego na tyle, ażeby ich nie dało się dopasować w składną całość, zamieniając elementy błędnie miejscami. Na koniec odwracamy obraz i potrząsamy pudłem, w którym leżą te kawałeczki, aby porządnieje wymieszać. Potem przychodzi nasz eksperymentator, widzi same „lewe strony” tych kartonowych kawałeczków i ma z nich złożyć całość taką, ażeby każdy znalazł się tam, gdzie pasuje. Będzie to nieco pracochłonne, ale możliwe, skoro zamiany miejsc zostały udaremnione kształtem indywidualnie nadanym tym kawałkom. Jeżeli teraz odwrócimy całość obrazem do góry, to oczywiście zobaczymy obraz <…>, mimo że ten, kto składał kawałki, nie miał najbledszego pojęcia o tym, że składa nie bezsensowne kształty w całość obrazu, ale że odtwarza pewien bardzo wyrazisty, jednoznaczny OBRAZ. <…> Zamiast obrazu może tam się równie dobrze znajdować napis w <każdym> z istniejących na tej planecie 5000 języków <…>. Wszystko jedno, co się pokaże po odwróceniu lewej strony poskładanych należycie kawałków na stronę właściwą, tj. „prawą”, ale przecież ewidentne jest, że ten, kto składał, jak „program komputera”, NIC nie wiedział, czyli nie miał pojęcia, czyli ani na włos nie rozumiał, CO ukaże się na odwrocie, a nawet nie miał wyobrażenia o tym, ŻE tam się jakakolwiek koherentna całość znacząca pojawi. Czy to jest argument przeciw mniemaniu, iż komputer mógłby jednak rozumieć podobnie jak człowiek, co on robi, wykonując kolejne kroki nadane instrukcją? Moim zdaniem, ma to tyle wspólnego z „obaleniem” tezy o AI, co teza, iż z kremowych ciastek można ułożyć napis, negujący szansę wybuchu Etny. Jedno za grosz nie ma nic wspólnego z drugim.

  •  

Может случиться и то, что среди вопросов найдутся такие, которые «выявят принципиальное НЕПОНИМАНИЕ» «китайской комнатой» всех текстов, и это мне видится возможным, потому что Джону Сёрлу и его респондентам казалось странным (на мой взгляд), что так называемая «strong AI», или гипотеза о возможности прохождения машиной теста Тьюринга, решается в рамках «тайны китайской комнаты» отрицательно: машина, которую изображает комната, ничего не понимает и, несмотря на это, отвечает на вопросы так, как будто бы она их понимала.
Ключ к ЭТОМУ находится в «пакете вопросов». <…> Так как вопросы «направленно сжаты» текстом рассказа, то тем самым они предопределены, то есть они вероятностно продетерминированы в рамках такого «fuzzy set», такого размытого собрания, которое имеет направляющую стрелу, уже a priori ориентирующую его на «такое-сякое понимание». <…> Так пусть Сёрл, вместо того чтобы описывать мысленные эксперименты, уничтожающие ложный миф об умных компьютерах, позволит закрыть себя в комнате, пусть ему всунут этот шрифт и этот рассказ, всего лишь скромно ограниченный стихами «Wlazі kotek na płotek i mruga, krótka to piosenka nie długa», пусть спросят (по-китайски, на карточках) о виде плетня, о породе кота и о том, имеет ли какое-то особое значение, когда кот моргает, или скорее всего он моргает просто так, а по-польски только для рифмы. И пусть Сёрл ответит более или менее дельно. Тексты такого рода, не хвастаясь, я могу производить возами, и из этого абсолютно ничего не следует. <…> Люди, занимающиеся АI, пока только узнали, что для игры в вопросы и ответы нужно создавать тщательные ситуационные РАМКИ («frames»), но также известно из опыта сегодняшнего дня, что можно спросить кухарку о том, как она делает поджарку, но скорее всего не следует ожидать её осмысленного ответа на вопрос, почему в поршневом двигателе сжигания новейших автомобилей нет двух клапанов (всасывающего и выхлопного), а только четыре или хотя бы три. Она ничего не скажет, потому что понятия не имеет, и это с «пониманием» или с «непониманием» грамматики, идиоматики, синтаксиса языка не имеет ничего общего. Чтобы понимать высказывание, следует ухватить его смысл и его смысловой радиус, и last but not least его специфическую предметную ориентацию.
Китайская комната Сёрла, как и моя puzzle, ничего не предопределяет, ничего не обещает, ничего не предетерминирует, ничего не «решает» раз и навсегда. <…> на особом месте в моей библиотеке находится книга 1924 года издания, написанная немецким ДОКТОРОМ (но не медицины), который математически, химически и физически доказал в ней полную невозможность космических полетов и даже получения ракетой ускорения, способного преодолеть гравитацию, чтобы она смогла выйти на околоземную орбиту. Это очень хорошее доказательство, «проведённое исключительно формальными средствами». О нём стоит помнить оппонентам искусственного интеллекта. Основным упреком против моего сведения «тайны китайской комнаты» к головоломке типа puzzle является чрезмерное упрощение дела. <…> Ранее Сёрл несколько вскружил голову тем, кому он описывал свой эксперимент, что это «китайщина» и т. п. Сейчас видно, что в принципе возможно при чисто формальном подходе (тоже складываются куски по их ФОРМЕ, а не по их смыслу) проведение эксперимента. Однако вместе с тем видно, на этот раз уже очень явно, что китаец в «английской комнате» действительно НИЧЕГО не понимает. Итак, КТО же понимает тексты в ОБОИХ случаях, в случае Сёрла и в моём? Конечно, тот, кто весь эксперимент — как первый, так и второй — выдумал, составил и запрограммировал. «Понимание» не находится ни в какой из комнат, ни в той «китайской» с англичанином, ни в «английской» с китайцем, <…> существенным является исключительно поведение складывающего, который и здесь и там ничего не понимает из текста, и не важно, видит ли он текст и не понимает его, не зная китайского, или же не видит текст (китаец), потому что если бы он его видел, ТО ТОЖЕ БЫ НЕ понял, если уж он должен соединять формы, а не символы. Короче говоря, эксперимент вводит нас в заблуждение, при этом Хофштадтер в своей книге[1] ТОЖЕ так считает, но зря усложнил объяснения. Не в том загвоздка, что китайское письмо несравненно труднее было бы приспосабливать к китайскому (НАПИСАННЫЕ буквы для невежды могут восприниматься графически как очень разные, например, латинская буква «f» формально тождественна «F»), но загвоздка в том, что работа всегда асемантично формальна. Следовательно, «понимание» в самих текстах не участвует вообще и a fortiori нет и речи о присутствующем «сознании». Возможен ли искусственный интеллект, покажет будущее. С обсуждаемым «reductio ad absurdum» это будущее НЕ ИМЕЕТ НИЧЕГО ОБЩЕГО.

 

Możliwe jest też zresztą, żeby wśród pytań znalazły się takie, które „zdemaskują zasadnicze NIEROZUMIENIE” wszystkich tekstów przez „chiński pokój”, co o tyle widzę jako dozwolone, ponieważ Johnowi Searle i jego respondentom dziwacznie (w mych oczach) wydawało się, że tak zwana strong AI, czyli hipoteza możliwości pokonania testu Turinga przez maszynę, zostaje w ramach „tajemnicy chińskiego pokoju” załatwiona negatywnie: maszyna, jaką udaje pokój, nic nie rozumie, a mimo to odpowiada na pytania tak, jakby je rozumiała.
Klucz do TEJ sprawy tkwi w „pakiecie pytań”. <…> Ponieważ pytania są „ściskane kierunkowo” przez tekst opowieści, są zarazem dawane przedustawnie, czyli są probabilistycznie predeterminowane w obrębie takiego fuzzy set, takiego rozmytego zbioru, który posiada strzałkę kierunkową orientującą go już a priori w „jakie takie rozumienie”. <…> Niechże Searle, zamiast opisywać myślowe eksperymenty, miażdżące rzekomy mit o rozumnych komputerach, da się zamknąć w pokoju, niech mu tam wsuną ten „skrypt” i tę opowieść, ograniczoną nader skromnie do wersów „Wlazł kotek na płotek i mruga, krótka to piosenka nie długa” i niech spytają (po chińsku, na kartkach) o rodzaj plota, o rasę kota, o to, czy jak kot mruga, to ma jakieś specjalne znaczenie, czy raczej mruga ot tak sobie, a po polsku tylko dla rymu. I niech Searle odpowie jako tako dorzecznie. <…> Ludzie parający się AI na razie dowiedzieli się, że trzeba dla gry w pytania i odpowiedzi stwarzać porządne RAMY (frames) sytuacyjne, ale wiadomo też z doświadczeń dnia powszedniego, że można pytać kucharkę o to, jak zasmażkę robi, ale się raczej nie należy spodziewać jej sensownej odpowiedzi na pytanie, dlaczego w tłokowych silnikach spalinowych nowszych modeli aut nie ma dwu zaworów (ssania i wydechu), tylko cztery albo chociażby trzy. Nie powie nic, bo pojęcia nie ma, co z „rozumieniem” albo i „nierozumieniem” gramatyki, idiomatyki, składni języka nie ma nic wspólnego. Żeby rozumieć wypowiedź, należy uchwycić jej sens i jej zakres znaczeniowy i last but not least jej desygnatywną orientacją specyficzną.
Chiński pokój Searle’a, podobnie jak mój puzzle, niczego nie przesądza, niczego nie klaruje, niczego nie predeterminuje, niczego nie „załatwia” raz na zawsze. <…> w wyróżnionym miejscu mej biblioteki znajduje się pochodząca z roku 1924 książka niemieckiego DOKTORA (ale nie medycyny), który matematycznie, chemicznie i fizycznie udowodnił w niej zupełną niemożliwość lotów kosmicznych, a nawet uzyskania przez rakietę napędu zdolnego pokonać grawitację, żeby mogła wejść na orbitę okołoziemską. Jest to bardzo ładny dowód „przeprowadzony ściśle formalnymi środkami”. Warto o nim pamiętać adwersarzom Sztucznej Inteligencji. Głównym zarzutem przeciw memu sprowadzeniu „tajemnicy chińskiego pokoju” do składanki typu puzzle byłoby nadmierne uproszczenie sprawy. <…> Uprzednio Searle zamącił co nieco w głowach tym, którym swój eksperyment opisał, bo to „chińszczyzna” itp. Teraz widać, że istotnie możliwe jest przy postępowaniu czysto formalnym (też składa się kawałki wedle ich FORMY, a nie ich sensu) dokonanie eksperymentu. Wszelako jednocześnie widać, tym razem już bardzo wyraźnie, że Chińczyk w „angielskim pokoju” istotnie NIC nie rozumie. Więc KTO rozumie teksty w OBU wypadkach, Searle’a i moim? Oczywiście ten, kto cały eksperyment — tak pierwszy, jak drugi — wymyślił, ułożył i zaprogramował. „Rozumienie” nie znajduje się w żadnym pokoju, ani w tym „chińskim” z Anglikiem, ani w tym „angielskim” z Chińczykiem, <…> istotne jest wyłącznie postępowanie układającego, który tu i tam nic nie rozumie z tekstu i nie jest ważne, czy widzi tekst, ale nie rozumie go, nie znając chińskiego, czy raczej tekstu nie widzi (Chińczyk), ponieważ jakby go widział, TOBY TEŻ NIE ZROZUMIAŁ, skoro ma zespalać formy, a nie symbole. Eksperyment, mówiąc krótko, wyprowadza nas w pole, przy czym Hofstadter w swej książce TEŻ tak uważa, ale niepotrzebnie wyjaśnienia skomplikował. Nie w tym sęk, że chińskie pismo do chińskiego pisma byłoby nieporównanie trudniej dopasować (litery PISANE mogą się dla ignoranta różnić jak graficznie bardzo odmienne litery łacińskie — czy „f” jest tożsame formalnie z „F”?), ale w tym sęk, że robota jest zawsze asemantycznie formalna. Tak zatem „rozumienie” w samych testach nie uczestniczy w ogóle i a fortiori nie ma mowy o obecnej „świadomości”. Czy inteligencja sztuczna jest możliwa, pokaże przyszłość. Z omawianą reductio ad absurdum ta przyszłość NIE MA NIC WSPÓLNEGO.

Перевод

[править]

В. И. Язневич, 2004

Примечания

[править]
  1. В его и Дэниела Деннета комментарии к статье Сёрла "Minds, Brains, and Programs", где последний впервые описывает «китайскую комнату».