Loading AI tools
З Вікіпедії, вільної енциклопедії
Аргуме́нт кита́йської кімна́ти стверджує, що виконання програми не може бути «розумом», «розумінням» або «свідомістю»[a] незалежно від того, наскільки програма забезпечує комп'ютеру поведінку розумної людини. Цей аргумент був вперше представлений філософом Джоном Серлем у своїй роботі «Minds, Brains, and Programs» («Розум, мізки і програми»), опублікованій в 1980 році в журналі Behavioral and Brain Sciences[en]. Відтоді він широко обговорювався.[1] Центральним елементом аргументу є уявний експеримент, відомий як китайська кімната.[2]
Аргумент спрямований проти філософських позицій[en] функціоналізму та комп'ютерної теорії розуму,[3] які вважають, що розум можна розглядати як систему обробки інформації, що оперує формальними символами. Зокрема, аргумент намагається спростувати позицію, яку Серль називає сильним штучним інтелектом: «Належним чином запрограмований комп'ютер з правильними вхідними і вихідними даними, матиме розум в точно такому ж сенсі, як людина має розум».[b]
Хоча аргумент китайської кімнати спочатку був представлений у відповідь на висловлювання дослідників штучного інтелекту (ШІ), він не є аргументом проти цілей дослідження ШІ, оскільки не обмежує силу інтелекту, яку може демонструвати машина.[4] Аргумент застосовується тільки до цифрових комп'ютерів, на яких виконуються програми, і не поширюється на машини в цілому.[5]
У популярній статті «Is the Brain's Mind a Computer Program?» («Чи є мислення комп'ютерною програмою?»), опублікованій у 1990 році, Серль описує експеримент таким чином:
Візьмемо, наприклад, яку-небудь мову, якої ви не розумієте. Для мене такою мовою є китайська. Текст, написаний китайською, я сприймаю як набір безглуздих каракулів. Тепер припустимо, що мене помістили в кімнату, в якій розставлені кошики, повні китайських ієрогліфів. Припустимо також, що мені дали підручник англійською мовою, в якому наводяться правила поєднання символів китайської мови, причому правила ці можна застосовувати, знаючи лише форму символів, розуміти значення символів зовсім необов'язково. Наприклад, правила можуть твердити: «Візьміть такий-то ієрогліф з кошика номер один і помістіть його поряд з таким-то ієрогліфом з кошика номер два». Уявімо собі, що люди, які перебувають за дверима кімнати і розуміють китайську мову, передають у кімнату набори символів, і що у відповідь я маніпулюю символами відповідно до правил і передаю назад інші набори символів. У цьому випадку книга правил є не що інше, як «комп'ютерна програма». Люди, які написали її, — «програмісти», а я граю роль «комп'ютера». Кошики, наповнені символами, — це «база даних»; набори символів, що передаються до кімнати, це «питання», а набори, що виходять з кімнати, це «відповіді». Припустимо далі, що книга правил написана так, що мої «відповіді» на «питання» не відрізняються від відповідей людини, яка вільно розмовляє китайською мовою. Наприклад, люди, що знаходяться зовні, можуть передати незрозумілі мені символи, що означають: «Який колір вам більше всього подобається?» У відповідь, виконавши запропоновані правилами маніпуляції, я видам символи, на жаль, мені також незрозумілі, що означають, що мій улюблений колір синій, але мені насправді подобається зелений. Таким чином, я витримаю тест Тюрінга на розуміння китайської мови. Але все ж насправді я не розумію ані слова китайською. До того ж, я ніяк не можу навчитися цій мові у розглянутій системі, оскільки не існує жодного способу, за допомогою якого я міг би довідатися сенс хоча б одного символу. Подібно до комп'ютера, що маніпулює символами, але не може вкласти в них жодного змісту. |
Серль стверджує, що без «розуміння» (або «інтенціональності») ми не можемо описати те, що робить машина як «мислення», і, оскільки вона не думає, вона не має «розуму». Тому він робить висновок, що «сильний ШІ» є помилковим.
У 1714 році Готфрід Лейбніц сформував подібний аргумент проти механізму[en] (позиції про те, що розум є машиною і не більше). Лейбніц використовував уявний експеримент розширення мозку, поки він не став розміром з млин.[6] Лейбніцю було важко уявити, що «розум», здатний до «сприйняття», може бути побудований з використанням тільки механічних процесів.[c] У короткому оповіданні 1961 року «Гра» Анатолія Дніпрова стадіон людей виступає перемикачами та осередками пам'яті, які реалізують програму перекладу фрази португальської мови, яку ніхто з них не знає.[7] У 1974 році Лоуренс Девіс уявляв собі дублювання мозку за допомогою телефонних ліній і офісів, у яких працювали люди, і в 1978 році Нед Блок[en] передбачив, що все населення Китаю бере участь у такому моделюванні мозку. Цей розумовий експеримент називається Китайський мозок, також «китайська нація» або «китайський тренажерний зал».[8]
Аргумент китайської кімнати був введений в 1980 році у статті Серля «Minds, Brains, and Programs» («Розум, мозок і програми»), опублікований в журналі Behavioral and Brain Sciences[en].[9] У підсумку вона стала «найвпливовішою цільовою статтею» журналу,[1] яка генерувала величезну кількість коментарів і відповідей у наступні десятиліття, і Серль продовжував захищати і уточнювати аргумент у багатьох статтях і книгах. Девід Коул пише, що «аргумент китайської кімнати, ймовірно, був найбільш широко обговорюваним філософським аргументом у когнітивній науці, який з'явився за останні 25 років».[10]
Більшість дискусій складається зі спроб спростування аргументу. «Переважна більшість, — відзначає редактор BBS[en] Стеван Харнад[en][d], — як і раніше думає, що китайський аргумент кімнати мертвий».[11] Об'єм літератури, що виріс навколо дискусії, надихнув Пата Хейса[en] на коментар, що поле когнітивної науки має бути переосмислено як «триваюча дослідницька програма, яка показує, що аргумент китайської кімнати Серля є помилковим».[12]
Аргумент Серля став «чимось класичним у когнітивній науці», стверджує Харнад. Варол Акман[en] погодився і охарактеризував оригінальну статтю як «зразок філософської чіткості і чистоти».[13]
Хоча аргумент китайської кімнати спочатку був представлений у відповідь на висловлювання дослідників штучного інтелекту (ШІ), філософи стали розглядати його як важливу частину філософії свідомості. Це виклик функціоналізму і комп'ютерної теорії розуму[e], і пов'язаний з такими питаннями, як проблема розум-тіло, проблема інших розумів[en], проблема-заземлення[en], і важка проблема свідомості.[a]
Серль визначив філософську позицію[en], яку він називає «сильним ШІ»:
Належним чином запрограмований комп'ютер з правильними входами і виходами, таким чином, матиме розум в точно такому ж сенсі, як люди мають розум.[b] |
Визначення залежить від відмінності між імітацією розуму та реальним розумом. Серль пише, що «згідно з Сильним ШІ, правильне моделювання дійсно є розумом. Згідно зі Слабким ШІ, правильне моделювання є моделлю розуму».[19]
Ця позиція випливає з деяких висловлювань дослідників та аналітиків раннього ШІ. Наприклад, у 1955 році засновник ШІ Герберт А. Саймон заявив,[20] що «зараз у світі є машини, які думають, що навчаються і створюють» і стверджують, що вони «вирішили поважну проблему розуму і тіла, пояснюючи, як система, що складається з матерії, може володіти властивостями розуму».[21] Джон Хегленд[en] писав, що «ШІ хоче тільки справжню статтю: машини з розумом, в повному і буквальному сенсі. Це не наукова фантастика, а реальна наука, що ґрунтується на теоретичній концепції настільки глибокій, наскільки вона є сміливою, а саме, ми, насамперед, самі є комп'ютерами».[22]
Серль також приписує наступні позиції захисникам сильного ШІ:
У більш пізніх презентаціях аргументу китайської кімнати, Серль визначив «сильний ШІ» як «комп'ютерний функціоналізм» (термін він приписує Даніелю Деннету).[3][27] Функціоналізм — це позиція в сучасній філософії свідомості, яка передбачає, що ми можемо визначати психічні явища (такі як вірування, бажання і сприйняття), описуючи їхні функції по відношенню один до одного і до зовнішнього світу. Згідно з функціоналізмом, оскільки комп'ютерна програма може точно представляти функціональні відносини як відносини між символами, комп'ютер може мати психічні явища, якщо він виконує правильну програму.
Стівен Харнад[en] стверджує, що уявлення Серля про сильний ШІ можна переформулювати як «впізнавані принципи обчислювальної діяльності, позиція (на відміну від „сильного ШІ“), якої фактично дотримуються багато мислителів, і отже, ця позиція варта спростування».[28] Комп'ютерна теорія розуму[h] це позиція у філософії розуму, яка стверджує, що розум можна точно описати як систему обробки інформації.
Кожен з наступних пунктів, на думку Харнада, є «принципом» комп'ютерної теорії розуму:[31]
Серль займає філософську позицію, яку він називає «біологічним натуралізмом[en]»: свідомість[a] і розуміння вимагають особливого біологічного механізму, який міститься в мозку. Він пише «мозок викликає думку»[5] і що «фактичні людські психічні явища залежать від реальних фізико-хімічних властивостей реальних людських мізків».[32] Серль стверджує, що цей механізм (відомий нейронауці як «нейронні кореляти свідомості[en]») повинен мати деякі (невизначені) «причинні сили», які дозволяють людському досвіду бути свідомістю.[33] Віру Серля в існування цих повноважень розкритикували.
Серль погоджується з тим, що машини можуть мати свідомість і розуміння, тому що, як він пише, «ми є саме такими машинами».[5] Серль вважає, що мозок, по суті, є машиною, але він дає початок свідомості і розуміння, використовуючи механізми, які не є обчислювальними. Якщо неврологія здатна ізолювати механічний процес, який породжує свідомість, то Серль надає можливість створити машини, які мають свідомість і розуміння. Однак, без специфічної техніки, Серль не вірить, що свідомість можна відтворити.
Біологічний натуралізм передбачає, що неможливо визначити, чи можна створити свідомість лише шляхом вивчення того, як функціонує система, оскільки особлива техніка головного мозку є суттєвою. Таким чином, біологічний натуралізм прямо протистоїть як біхевіоризму, так і функціоналізму (включаючи «комп'ютерний функціоналізм» або «сильний ШІ»).[34] Біологічний натуралізм подібний до теорії ідентичності[en] (положення, що психічні стани «ідентичні» або «складаються з» неврологічних подій); однак, Серль має специфічні технічні заперечення проти теорії тотожності.[35][i] Біологічний натуралізм Серля і сильний ШІ протиставляються декартовому дуалізму, класичній ідеї про те, що мозок і розум складаються з різних «речовин». Дійсно, Серль звинувачує сильний ШІ в дуалізмі,[34] пишучи, що «сильний ШІ має сенс лише з огляду на дуалістичне припущення, що там, де розум стурбований, мозок не має значення».[23]
Оригінальна презентація Серля підкреслювала «розуміння» — тобто, психічні стани, які філософи називають «інтенціональністю», і безпосередньо не зверталися до інших тісно пов'язаних ідей, таких як «свідомість». Однак у більш пізніх презентаціях Серль включив свідомість як справжню мету аргументу.[3]
Моделі комп'ютерної теорії розуму самі по собі недостатні для свідомості. Комп'ютерна теорія розуму ґрунтується на свідомості так само, як обчислювальна модель чого-небудь ґрунтується на модельованому домені. Ніхто не припускає, що обчислювальна модель дощів у Лондоні залишить нас мокрими. Але вони роблять помилку, вважаючи, що комп'ютерна теорія розуму має якусь свідомість. Це одна й та ж помилка в обох випадках. | ||
— Джон Р. Серль, Свідомість і мова, с. 16 |
Девід Чалмерс пише: «цілком зрозуміло, що свідомість знаходиться в корені питання» китайської кімнати.[36]
Колін Макгінн[en] стверджує, що китайська кімната надає вагомі докази того, що важка проблема свідомості є принципово нерозв'язною. Аргумент, щоб бути зрозумілим, полягає не в тому, чи може машина бути свідомою, а в тому, чи може вона (або що-небудь інше) бути свідомим. Зрозуміло, що будь-який інший метод перевірки окупанта китайської кімнати має такі ж принципові труднощі, як обмін питаннями і відповідями на китайській мові. Це просто неможливо визначити, чи є у приміщенні хтось свідомий або якесь розумне моделювання.[37]
Серль стверджує, що це справедливо лише для спостерігача поза кімнатою. Вся думка експерименту полягає в тому, щоб помістити людину всередину кімнати, де вони можуть безпосередньо спостерігати за операціями свідомості. Серль стверджує, що з його точки зору в кімнаті немає нічого, що, на його погляд, могло бути свідомістю, крім себе, і явно не має розуму, який може говорити по-китайськи.
Патрік Хью використовував аргумент китайської кімнати, щоб вивести вимоги від військових систем управління і командування, якщо вони хочуть зберегти моральне керівництво[en] командира. Він провів аналогію між командувачем у їхньому командному центрі[en] і людиною в китайській кімнаті і проаналізував її читаючи поняття Арістотеля про «обов'язки» і «незнання». Інформація може бути «перетворена» з сенсу в символи і маніпулюватися символічно, але моральне втручання могло бути підірване, якщо було неадекватне «перетворення» в сенс. Хью цитував приклади інциденту USS Vincennes.[38]
Аргумент китайської кімнати — це, перш за все, аргумент у філософії свідомості, і як головні дослідники у сфері інформатики, так і дослідники штучного інтелекту вважають це незначним для їхніх галузей.[4] Однак, кілька концепцій, розроблених вченими у сфері інформатики, мають важливе значення для розуміння аргументу, включаючи обробку символів, машини Тюрінга, повноту Тюрінга і тест Тюрінга.
Аргументи Серля зазвичай не розглядаються як питання для дослідження ШІ. Стюарт Рассел[en] і Пітер Норвіг зауважують, що більшість дослідників ШІ «не піклуються про сильну гіпотезу ШІ — до тих пір, поки програма працює, їм не важливо, чи називаєте ви це імітацією інтелекту або реальним інтелектом».[4] Основна місія дослідження штучного інтелекту полягає лише в тому, щоб створити корисні системи, які діють розумно, і це не має значення, якщо інтелект є «просто» імітацією.
Серль не погоджується з тим, що дослідження ШІ можуть створювати машини, здатні до високоінтелектуальної поведінки. Аргумент китайської кімнати залишає відкритою можливість того, що може бути побудована цифрова машина, яка діє більш розумно, ніж людина, але не має розуму або інтенціональності так само, як це робить мозок. Аргумент китайської кімнати не є доведеним до абсурду, а є прикладом, який вимагає пояснення.
«Сильний ШІ» Серля не слід плутати із «сильним ШІ», як це визначено Реймондом Курцвейлом та іншими футуристами,[39] які використовують цей термін для опису машинного розуму, який конкурує або перевершує людський інтелект. Курцвейл спирається, головним чином, на кількість інтелекту, що відображається машиною, тоді як аргумент Серля не обмежує цього. Серль стверджує, що навіть супер-розумна машина не обов'язково має розум і свідомість.
Китайська кімната реалізує варіант тесту Тюрінга.[41] Алан Тюрінг ввів тест в 1950 році, щоб допомогти відповісти на питання «чи може машина мислити?» У стандартній версії, людина-суддя бере участь в розмові природною мовою з людиною і машиною, призначеної для генерації продуктивності, яка не відрізняється від людських істот. Всі учасники розділені один від одного. Якщо суддя не може надійно відрізнити машину від людини, машина, як кажуть, пройшла тест.
Тюрінг потім розглянув кожні з можливих заперечень проти пропозиції «машини можуть думати», і виявив, що є прості, очевидні відповіді, якщо питання де-містифіковано у такий спосіб. Він, однак, не призначається для випробування вимірювання наявності «свідомості» або «розуміння». Він не вірив, що це ставлення до проблем, з якою він звертався. Він писав:
Я не хочу створити враження, що я думаю, що немає ніякої таємниці свідомості. Існує, наприклад, щось схоже на парадокс, пов'язаний з будь-якими спробами локалізувати його. Але я не думаю, що ці таємниці обов'язково повинні бути вирішені перш, ніж ми можемо відповісти на питання, які турбують нас в цій статті[41]. |
Для Серля, як філософа, який працює в галузі розуму і свідомості, це відповідні таємниці. Китайська кімната призначена, щоб показати, що тест Тюрінга є недостатнім для виявлення присутності свідомості, навіть якщо в кімнаті може бути машина, що функціонує як свідомий розум.
Китайська кімната (і всі сучасні комп'ютери) маніпулює фізичними об'єкти для того, щоб проводити розрахунки і робити моделювання. Дослідники штучного інтелекту Аллен Ньюел і Герберт А. Саймон назвали це свого роду машиною, фізичною системою символів. Це еквівалентно також формальним системам, які використовуються в галузі математичної логіки.
Серль підкреслює той факт, що подібного роду маніпуляції символами є синтаксичними (запозичуючи термін з вивчення граматики). Комп'ютер маніпулює символами, використовуючи форму синтаксичних правил, без яких-небудь знань про семантику символів (тобто їх зміст).
Ньюел і Саймон припустили, що фізична система символів (наприклад, цифровий комп'ютер) має все необхідне обладнання для «загальної інтелектуальної дії», або, як це відомо сьогодні, загальний штучний інтелект. Вони описали це як філософську позицію, гіпотезу фізичної системи символів: «Фізична система символів має необхідні і достатні умови для загальної інтелектуальної дії».[42][43] Аргумент китайської кімнати не спростовує це, тому що він оформлений з точки зору «розумних дій», тобто зовнішньої поведінки машини, а не наявності чи відсутність свідомості і розуму.
Китайська кімната має конструкцію, аналогічну сучасному комп'ютеру. Вона має архітектуру фон Неймана, яка складається з програми (книг інструкцій), деякої кількості пам'яті (папер і картотека), процесору, який слідує інструкціям (людина), і засобу для запису символів в пам'яті (олівець і ластик). Машина цієї конструкції відома в області теоретичної інформатики як «машина Тюрінга», тому що вона має необхідний механізм для виконання будь-яких обчислень, який машина Тюрінга може виконати, і, отже, вона здатна робити крок за кроком моделювання будь-якого іншого цифрового апарату, враховуючи достатню кількість пам'яті і часу. Алан Тюрінг пише: «всі цифрові комп'ютери в певному сенсі еквівалентні.» Широко прийнята Теза Черча-Тюрінга стверджує, що будь-яка функція обчислюється за допомогою ефективної процедури обчислення на машині Тюрінга.
Тюрингова повнота китайської кімнаті означає, що вона може робити все, що будь-який інший цифровий комп'ютер може зробити (хоча і набагато, набагато повільніше). Таким чином, якщо китайська кімната не містить чи не може містити китайськомовного розуму, то ніякий інший цифровий комп'ютер не може містити розум. Деякі відповіді Серль починає, стверджуючи, що в кімнаті, як описано вище, може не бути китайськомовного розуму. Аргументи цієї форми, відповідно до Стівена Харнада[en], є «не спростуванням (а швидше твердженням)»[44] аргументу китайської кімнати, тому що ці аргументи фактично означають, що ніякі цифрові комп'ютери не можуть мати розум.[25]
Є деякі критики, такі як Енох Бен-Ямі, які стверджують, що китайська кімната не може навіть емітувати всі можливості цифрового комп'ютера, наприклад, не має змоги визначити поточний час.[45]
Джон Серль випустив більш формальний варіант аргументу, частиною якого є китайська кімната. Першу версію він представив у 1984 році. Версія, наведена нижче, починається з 1990 року.[46][j] Єдиною частиною аргументу, який має бути суперечливим, є A3, і саме цей момент експерименту китайської кімнати буде доведено.[k]
Серль стверджує, що це веде безпосередньо до такого висновку:
Такий аргумент має на меті показати, що штучний інтелект ніколи не може створити машину з розумом, написавши програми, які маніпулюють символами. Решта аргументів стосуються іншого питання. Чи працює людський мозок? Іншими словами, чи є обчислювальна теорія розуму правильною? Він починає з аксіоми, яка покликана висловити основний сучасний науковий консенсус про мозок і розум:
І з цього він виводить наступні висновки:
Відповіді на аргумент Серля можна класифікувати відповідно до того, що вони стверджують і що вони показують:[l]
Деякі з аргументів (наприклад, моделювання роботи та мозку) потрапляють у декілька категорій.
Ці відповіді намагаються відповісти на запитання: оскільки людина в кімнаті не говорить китайською, де той «розум», що говорить? У цих відповідях розглядаються ключові онтологічні питання дихотомії розуму та тіла і моделювання проти реальності. Всі відповіді, які визначають розум у кімнаті, є версіями «системної відповіді».
Серль зазначає, що (у цій простій версії відповіді) «система» — це не що інше, як колекція звичайних фізичних об'єктів; вона надає силу розуміння і свідомості «кон'юнктурі цієї особи і бітів паперу»[26], не роблячи жодних зусиль, щоб пояснити, як ця купа об'єктів стала свідомою, мислездатною істотою. Серль стверджує, що жодна розумна людина не повинна бути задоволена відповіддю, якщо вона не «під владою ідеології»;[26] Для того, щоб ця відповідь була віддалено правдоподібною, треба сприймати як належне, що свідомість може бути продуктом «системи» обробки інформації, і не вимагає нічого схожого на реальну біологію мозку.
Тоді Серль відповідає спрощенням цього списку фізичних об'єктів: він запитує, що станеться, якщо людина запам'ятає правила і відстежуватиме все у своїй голові? Тоді вся система складається лише з одного об'єкта: самої людини. Серль стверджує, що якщо людина не розуміє китайську мову, то система не розуміє китайської мови, тому що тепер «система» і «людина» описують точно один і той же об'єкт.[26]
Критики відповіді Серля стверджують, що програма дозволила людині мати дві свідомості в одній голові.[хто?] Якщо ми припускаємо, що «розум» є формою обробки інформації, то теорія обчислень може враховувати дві групи обчислень, що відбуваються одночасно, а саме: (1) обчислення для універсальної програмованості (яка є функцією, що створюється особою і матеріалами запису, незалежно від будь-якого конкретного змісту програми) та (2) обчислення машини Тюрінга, яка описується програмою (яка створюється всім, включаючи конкретну програму).[53] Теорія обчислень, таким чином, офіційно пояснює відкриту можливість того, що друге обчислення в китайській кімнаті може спричинити людино-еквівалентне семантичне розуміння китайських входів. Основна увага приділяється машині Тюрінга, а не людині.[54] Однак, з точки зору Серля, цей аргумент є циркулярним. Йдеться про те, чи є свідомість формою обробки інформації, і ця відповідь вимагає, щоб ми зробили це припущення.
Більш складні версії системних відповідей намагаються більш точно визначити, що таке «система», і вони відрізняються саме тим, як вони її описують. Згідно з цими відповідями,[хто?] «розум, який говорить китайською», може бути такими речами, як: «програмне забезпечення», «програма», «запущена програма», імітація «нейронних корелятів свідомості», «функціональна система», «імітований розум», «утворювана властивість» або «віртуальний[en] розум» (версія відповіді Марвіна Мінського, описана нижче).
Серль відповідає, що такий розум, у кращому випадку, симуляція, і пише: «Ніхто не припускає, що комп'ютерне моделювання тривоги високого рівня спалить околиці або що комп'ютерне моделювання дощової бурі залишить нас усіх залитими».[58] Ніколас Ферн відповідає, що для деяких речей імітація справляється не гірше ніж реальна дія. "Коли ми викликаємо функцію калькулятора на настільному комп'ютері, на екрані з'являється зображення калькулятора. Ми не скаржимося, що «це насправді не калькулятор», тому що фізичні атрибути пристрою не є важливими.[59] Питання в тому, чи є людський розум схожим на калькулятор, і чи складається він по суті з інформації? Або розум був схожим на дощ, або на щось інше, а не на комп'ютер, і неможливо відтворити його повністю за допомогою комп'ютерного моделювання? (Питання моделювання також обговорюється в статті синтетичного інтелекту[en].)
Ці відповіді дають пояснення, хто саме розуміє китайську мову. Якщо є щось, крім людини в кімнаті, яка може зрозуміти китайську мову, Серль не може стверджувати, що (1) людина не розуміє китайську мову, тому (2) ніщо в кімнаті не розуміє китайську мову. Це, на думку тих, хто робить цю відповідь, показує, що аргумент Серля не в змозі довести, що «сильний ШІ» є помилковим.[o]
Однак, думки експерименту не мають на меті бути доведеними до абсурду, а скоріше прикладом, який потребує пояснення. Серль не стверджує, що ситуація неможлива, та мабуть важко або неможливо пояснити, як ця система може мати суб'єктивний свідомий досвід.[61] Відповіді системи вдається довести, що це не неможливо, але не в змозі показати, як система буде мати свідомість; відповіді самі по собі не дають жодних доказів того, що система (або віртуальний розум) розуміє китайську мову, крім гіпотетичної передумови, що вона проходить тест Тюрінга. Як пише Серль, «відповідь системи просто ставить питання, наполягаючи на тому, що система повинна розуміти китайську мову».[26]
Що стосується людини в кімнаті, то символи — це просто безглузді «карикатури». Але якщо китайська кімната дійсно «розуміє» те, що вона говорить, то символи повинні отримати своє значення звідкись. Ці аргументи намагаються з'єднати символи з речами, які вони символізують. Ці відповіді стосуються сумнівів Серля щодо інтенціональності, заземлення символів[en] і синтаксису проти семантики.
До кожної з цих пропозицій відповідь Серля однакова: незалежно від того, скільки знань написано в програмі і незалежно від того, як програма пов'язана зі світом, вона все ще перебуває в кімнаті, маніпулюючи символами відповідно до правил. Його дії синтаксичні, і ніколи не можна буде пояснити йому, що символізують символи. Серль пише «синтаксис недостатній для семантики».[70][u]
Тим не менш, для тих, хто визнає, що дії Серля моделюють розум, відокремлений від його власного, важливе питання не те, що символи означають для Серля, а важливо, що вони означають для віртуального розуму. Незважаючи на те, що Серль потрапив у кімнату, віртуальний розум не є: він пов'язаний із зовнішнім світом через китайських спікерів, яким він говорить, через програмістів, які дали йому світові знання, і через камери та інші датчики, які можуть надати робототехники.
Ці аргументи є всіма версіями системних відповідей, які визначають певний тип системи важливим; вони визначають певну спеціальну технологію, яка створила б усвідомлення розуміння в машині. (Зауважте, що відповіді «робот» і «розумне знання» також визначають певний тип системи важливим.)
[У]явіть собі, що замість одномовного чоловіка в кімнаті перетасовки символів у нас є людина, яка керує складним набором водопровідних труб з клапанами, що з'єднують їх. Коли людина отримує китайські символи, вона шукає в програмі, написаною англійською мовою, в якій вона повинна включатися і вимикатися. Кожне підключення води відповідає синапсу в китайському мозку, і вся система налаштована так, що після виконання всіх правильних стрільб, тобто після включення всіх правильних змішувачів, китайські відповіді виходять на вихідний кінець серії труб. А де ж розуміння в цій системі? Вона бере китайську мову як вхід, вона імітує формальну структуру синапсів китайського мозку, і вона дає китайцям вихід. Але людина, звичайно, не розуміє китайську мову, а також водопровідні труби, і якщо ми спокушаємося прийняти те, що, на мою думку, є абсурдним поглядом, що якимось чином зрозуміла зв'язок людини і водопроводу, пам'ятайте, що в принципі людина може усвідомити формальну структуру водопровідних труб і виконувати всі «нейронні обстріли» у його уяві.[9][сторінка?]
Ця відповідь поєднує в собі відповідь робота з відповіддю симулятору мозку, стверджуючи, що симуляція мозку, пов'язана зі світом через тіло робота, може мати розум.[81]
Ці аргументи (і відповіді на знання робота або здорового глузду) визначають певну спеціальну технологію, яка допоможе створити свідоме розуміння в машині. Вони можуть тлумачитися двома способами: або вони стверджують, що (1) ця технологія необхідна для свідомості, китайська кімната не реалізує або не може реалізувати цю технологію, і тому китайська кімната не може пройти тест Тюрінга або (навіть якщо це було) не мала би свідомого розуміння. Або вони можуть стверджувати, що (2) легше бачити, що китайська кімната має розум, якщо ми уявляємо цю технологію як використовувану для її створення.
У першому випадку, коли потрібні такі функції, як тіло робота або архітектура конекторів, Серль стверджує, що сильний ШІ (як він розуміє) був покинутий.[aa] Китайська кімната має всі елементи повної машини Тюрінга і, таким чином, здатна імітувати будь-які цифрові обчислення. Якщо в кімнаті Серля неможливо пройти тест Тюрінга, то немає ніякої іншої цифрової технології, яка могла б пройти тест Тюрінга. Якщо кімната Серля могла пройти тест Тюрінга, але все ще не має розуму, тест Тюрінга недостатній для того, щоб визначити, чи є в кімнаті «розум». Так чи інакше, він заперечує ту чи іншу позицію, яку Серль вважає «сильним ШІІ», доводячи свій аргумент.
Аргументи мозку, зокрема, заперечують сильний ШІ, якщо вони припускають, що немає простішого способу описати розум, ніж створити програму, яка так само таємнича, як і мозок. Він пише: «Я думав, що вся ідея сильного ШІ полягає в тому, що нам не потрібно знати, як працює мозок, щоб дізнатися, як працює розум».[24] Якщо розрахунок не дає пояснення людського розуму, то сильний ШІ зазнав невдачі, згідно з думкою Серля.
Інші критики стверджують, що кімната, як це описав Серль, насправді має розум, однак вони стверджують, що це важко побачити — опис Серля є правильним, але вводить в оману. Реорганізуючи приміщення більш реально, вони сподіваються зробити це більш очевидним. У цьому випадку ці аргументи використовуються як заклики до інтуїції (див. Наступний розділ).
Насправді, приміщення можна так само легко переробити, щоб послабити нашу інтуїцію. Аргумент Блокхеда[en][83] Неда Блока[en] припускає, що програма може, теоретично, бути переписана в просту таблицю пошуку правил форми «якщо користувач пише S, відповідає P і переходить до X». Принаймні, в принципі, будь-яка програма може бути переписана (або «рефактована») у цю форму, навіть в мозок.[ab] У сценарії Блокхеда весь психічний стан прихований у букві X, який представляє адресу пам'яті — номер, пов'язаний з наступним правилом. Важко уявити, що момент свідомого досвіду може бути захоплений в одному великому числі, але це саме те, що стверджує «сильний ШІ». З іншого боку, така таблиця була б смішно великою (до того, що вона фізично неможлива), і твердження могли б бути надзвичайно специфічними.
Серль стверджує, що як би у програмі не було написана, як машина пов'язана зі світом, розум моделювався б просто крок за кроком цифрової машини (або машин). Ці машини завжди такі самі, як людина в кімнаті: вони нічого не розуміють і не говорять по-китайські. Вони просто маніпулюють символами, не знаючи, що вони означають. Серль пише: «Я можу мати будь-яку офіційну програму, яка вам подобається, але я все ще нічого не розумію».[84]
Наступні аргументи (і інтуїтивні інтерпретації аргументів вище) прямо не пояснюють, як китайська мова може існувати в кімнаті Серля, або як символи, якими він маніпулює, можуть стати значущими. Проте, викликаючи сумніви щодо інтуїції Серля, вони підтримують інші позиції, такі як відповіді системи та робота. Ці аргументи, якщо вони будуть прийняті, не дозволять Серлю стверджувати, що його висновок очевидний, підриваючи інтуїцію, яка вимагає його визначеність.
Кілька критиків вважають, що аргумент Серля повністю спирається на інтуїцію. Нед Блок[en] пише: «Аргумент Серля залежить від сили його інтуїції, яку певні суб'єкти не мають».[85] Деніел Деннетт описує аргумент китайської кімнати як помилковий «інтуїційний насос[en]»[86] і пише: «уявний експеримент Серля залежить, незаконно, від твого уявлення про простий випадок, нерелевантного випадку, і виведення з нього» очевидного "висновку.[86]
Деякі з вищенаведених аргументів також функціонують як заклики до інтуїції, особливо до тих, які мають на меті зробити більш правдоподібним те, що китайська кімната містить розум, який може включати робота, розумне знання, моделювання мозку та відповіді коннектиста. Деякі з вищенаведених відповідей також стосуються конкретного питання складності. Відповідь проблеми здорового сенсу підкреслює, що робоча система штучного інтелекту повинна бути такою ж складною і взаємопов'язаною, як і людський мозок. Відповідь на розумне знання підкреслює, що будь-яка програма, яка проходила тест Тюрінга, повинна бути «надзвичайно пружною, витонченою і багатошаровою системою, наповненою» світовими знаннями «і метазнанням і мета-мета-знаннями», як пояснює Деніел Деннет.[68]
Особливо яскравою версією швидкості і складності є відповідь Пола[en] та Патріції Черчленд. Вони пропонують такий аналогічний експеримент:
Стівен Харнад[en] критично ставиться до відповідей швидкості та складності, коли вони збиваються за межі нашої інтуїції. Він пише: «Деякі зробили культ швидкості і часу, вважаючи, що, прискорившись до потрібної швидкості, обчислювальний процес може зробити фазовий перехід у психіку. Повинно бути зрозуміло, що це не контраргумент, а просто спекуляція ad hoc (так само, як і думка, що все це лише питання, яке потрібно доробити до потрібного ступеня „складності“)».[90][ad]
Серль стверджує, що його критики також покладаються на інтуїцію, проте інтуїції його опонентів не мають емпіричної основи. Він пише, що для того, щоб розглядати «відповідь системи» як віддалено правдоподібну, людина повинна бути «під владою ідеології».[26] Системна відповідь має сенс тільки для Серля, якщо припустити, що будь-яка «система» може мати свідомість, просто через систему, що має правильну поведінку і функціональні частини. Це припущення, стверджує він, не є надійним з огляду на наш досвід свідомості.
Кілька відповідей стверджують, що аргумент Серля не має значення, оскільки його припущення про розум і свідомість є помилковими. Серль вважає, що люди щодня безпосередньо відчувають свою свідомість, інтенціональність і природу розуму, і що цей досвід свідомості не викликає сумніву. Він пише, що ми повинні «припускати реальність і пізнаваність розумового».[93] Ці відповіді на запитання, чи є Серль виправданим у використанні власного досвіду свідомості, щоб визначити, що це більше, ніж механічна обробка символів. Зокрема, відповідь інших умів стверджує, що ми не можемо використовувати наш досвід свідомості, щоб відповісти на питання про інші уми (навіть розум комп'ютера), і відповідь епіфенома стверджує, що свідомість Серля не «існує» в тому сенсі, що Серль думає, що це працює.
Ця відповідь вказує на те, що аргумент Серля є версією проблеми інших розумів[en], застосованих до машин. Не існує способу визначити, чи суб'єктивний досвід інших людей є таким самим, як наш. Ми можемо лише вивчити їхню поведінку (тобто, надавши їм власний тест Тюрінга). Критики Серля стверджують, що він приписує китайську кімнату до більш високого стандарту, ніж той, до якого мі б приписали звичайну людину.[94][ae]
Нілс Нільссон пише: "Якщо програма поводиться так, наче вона помножується, більшість з нас скаже, що це насправді помножується. Адже, наскільки я знаю, Серль може поводитися тільки так, ніби він глибоко думає про ці питання. Але, незважаючи на те, що я не згоден з ним, його симуляція досить гарна, тому я готовий покласти його на справжню думку.
Алан Тюрінг передбачав аргумент Серля (який він назвав «Аргумент від свідомості») в 1950 році і надав відповідь іншим розумам. Він зазначив, що люди ніколи не розглядають проблему інших розумів при спілкуванні один з одним. Він пише, що «замість того, щоб постійно сперечатися над цим питанням, звичайно маємо ввічливу конвенцію, над якою всі думають».[96] Тест Тюрінга просто поширює цю «ввічливу конвенцію» на машини. Він не мав наміру вирішувати проблему інших умів (для машин або людей), і він не думав, що нам це потрібно.[af]
Кілька філософів стверджують, що свідомості, як це описує Серль, не існує. Ця позиція іноді називається елімінативним матеріалізмом: думка про те, що свідомість є властивістю, яка може бути зведена до строго механічного опису, і що наш досвід свідомості є, як це описує Деніель Деннетт, «ілюзією користувача[en]».[99]
Деніел Деннетт дає таке розширення аргументу «епіфеномен».
Припустимо, що за деякою мутацією народжується людина, яка не має «причинних властивостей» Серля, але, однак, діє точно так само, як людина. (Цей вид тварини називається «зомбі» в думках експериментів у філософії свідомості). Ця нова тварина буде відтворюватися так само, як будь-яка інша людина, і в кінцевому підсумку буде більше цих зомбі. Природний відбір приносить користь зомбі, оскільки їхній дизайн (ми можемо припустити) трохи простіше. Зрештою люди вимерли б. Отже, якщо Серль має рацію, то, швидше за все, люди (як ми їх бачимо сьогодні) є насправді «зомбі», які, проте, наполягають на тому, що вони свідомі. Неможливо знати, чи всі ми зомбі чи ні. Навіть якщо ми всі зомбі, ми все одно віримо, що ми не є.[101]
Серль не погоджується з цим аналізом і стверджує, що «вивчення розуму починається з таких фактів, як те, що люди мають переконання, тоді як термостати, телефони і додавання машин не … і печінки.»[82] Він вважає очевидним, що ми можемо виявити присутність свідомості і відкидає ці відповіді як невідповідні.
Майк Елдер[en] стверджує, що весь аргумент є легковажним, тому що він не позитивістський: не тільки відмінність між імітацією розуму і розумом, який не є чітко визначеним, але це також не має значення, оскільки жоден експеримент не був, або навіть може бути, запропонований розрізняти їх.[102]
Аргумент китайської кімнати є центральним поняттям у романах Пітера Воттса Сліпобачення і (в меншій мірі) Ехопраксія.[103] Вона також є центральною темою відеоігри Virtue's Last Reward[en], і пов'язана з розповіддю гри. У 4-му сезоні американської злочинної драми 4исла є коротке посилання на китайську кімнату.
The Chinese Room[en] також називається британська незалежна студія з розробки відеоігор, найвідомішою в роботі над експериментальними іграми від першої особи, такими як Everybody's Gone to the Rapture[en] або Dear Esther[en].[104]
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.