From Wikipedia, the free encyclopedia
Filosofie umělé inteligence (UI) je odvětví filosofie, které se pokouší odpovědět na otázky jako:[1]
Tyto tři otázky odrážejí rozdílné zájmy vědců, zabývajících se umělou inteligencí: lingvistiku, kognitivní vědu a filosofii. Vědecká odpověď na tyto otázky plně závisí na užité definici „inteligence“, „vědomí“ a „stroje“.
Mezi některé z hlavních postojů ve filozofii umělé inteligence patří:
Tento odstavec se týká nápodoby vnějších projevů lidské inteligentní činnosti, nikoli modelování funkce struktur lidského mozku. Inteligentní lidská činnost je produktem procesů lidské psýchy, tedy procesů reálného světa. Imitující zařízení – počítač je exaktní stroj ze světa exaktního (exaktní věda, exaktní stroje, exaktní hry …). Jsou to dva rozdílné světy, s rozdílnými principy i možnostmi, avšak existuje jistá styčná oblast, v níž exaktní svět může modelovat reálný svět, a tak modelovat vnějškové projevy inteligentní lidské činnosti.
Nalézt onu styčnou oblast znamená, nalézt takový model dané části reálného světa, který náleží do exaktního světa. Modelovat reálný svět tj. vytvořit jeho znalostní – kognitivní model tak, aby tento model byl součástí exaktního světa, je úloha vyřešená již exaktní vědou a je tak společná výše uvedenému přístupu umělé inteligence. Aby exaktní věda byla exaktní, musí být založena: zaprvé na exaktním poznání reálného světa (opuštěním vágnosti v úloze filtru poznání) a zadruhé na exaktním zápisu poznaného (zákazem vnitřní vágnosti interpretace všech jazykových konstrukcí použitého jazyka), a tak i exaktním sdělování poznaného.[9]. Exaktní věda je abstraktní konstrukcí, kdy reálný svět není poznáván přirozeným lidským způsobem (vágně), ale speciálně tvořenými prostředníky, veličinami a parametry . Jsou jistými manifestacemi reálného světa, či sondami do reálného světa. Znalosti o reálném světě (rozpoznané zákonitosti přírody) jsou pak zapsány matematickým jazykem jako vztahy mezi veličinami a parametry. Takto je vymezen způsob získávání informace o reálném světě (poznání) i charakter získaných informací. Totéž tedy musí platit pro umělou inteligenci. Jinými slovy, místo inherentně vágních znalostí získaných přirozeným lidským poznáním, lze v umělé inteligenci pracovat pouze se znalostmi získanými Newtonovým diskrétním filtrem exaktních věd. Jazykem reprezentujícím znalosti, musí být umělý formální jazyk, vyznačující se exaktní (tj. bez vnitřní vágnosti, tedy bez jakýchkoli pochyb) interpretací všech jazykových konstrukcí (matematika, formální logiky, programovací jazyky).
Mezi znalostmi získanými přirozeným poznáním a znalostmi získanými poznáním metodou exaktních věd, je kvalitativní propast. V prvém případě se na svět díváme filtrem vágnosti[10], v druhém případě Newtonovým filtrem „dírkovaným“, dírkami „vidíme“ veličiny a parametry – elementární manifestace reálného světa a vztahy mezi nimi, a nic jiného. Newton „digitalizoval“ přirozený vágní pohled člověka na reálný svět. Inherentně vágní znalosti získané přirozeným poznáním lze sdělovat (reprezentovat, popsat) jen a jen neformálním jazykem, nejčastěji přirozeným. Znalosti získané umělým poznáním lze reprezentovat umělým formálním jazykem (matematika, logika, programovací jazyky)[11],[9]. Jelikož vágnost přirozeného jazyka je především vnitřní a to i u kvantifikátorů, a vnitřní vágnost umělého formálního jazyka musí být vždy nulová, platí zde to, co bylo řečeno v heslech Vágnost a Exaktní věda, a to, že požadujeme-li exaktní poznatky zapsatelné umělým formálním jazykem, musí tyto znalosti být získány Newtonovým exaktním umělým poznáním. Nelze inherentně vágní znalosti získané přirozeným lidským poznáním, kde je filtrem poznáním vágnost, dodatečně převést na exaktní znalosti, tedy zbavit je inherentní vnitřní vágnosti, a tak dodatečně zkvalitnit informaci. Hledaná styčná oblast je tedy určena zaprvé typem znalostí a zadruhé typem použitého jazyka. Znalosti musí být získány umělým newtonovským poznáním, jazyk musí být umělý formální jazyk, u nějž interpretace je vždy exaktní, tedy bez vnitřní vágnosti.
Cesta modelování vnitropsychických procesů exaktním strojem – počítačem není možná, nejen z důvodů, že tyto procesy jsou nedostatečně poznány, ale zejména z principiálních důvodů. Tyto procesy jsou postaveny na inherentní vnitřní vágnosti, a ta je v exaktním světě zakázána[11]. Cesta modelování vnitropsychických procesů proto směřuje k modelování struktur lidského mozku započaté modelováním neuronových sítí. Modelování lidského uvažování počítačem se v umělé inteligenci proto zatím provádí jinak, tak jak exaktní svět umožňuje. Odvozování (odhalování) nových informací z dosud existujících – výchozích, můžeme zahrnout do pojmu myšlení, a je chápáno jako inteligentní činnost člověka. V exaktním světě rovněž existuje odvozování čili inference, kdy z výchozích znalostí jsou získány – odhaleny znalosti dosud skryté. Tuto inferenci používá matematika a exaktní věda, a jako paralelu lidského myšlení, ji používá umělá inteligence. V exaktním světě se proces inference (odvozování – manipulace se symboly) děje na základě formální složky jazyka, které říkáme syntaktická složka jazyka (a inferenci se říká formální či syntaktická), viz příklad na stránce Vágnost. Sémantická (významová) složka jazyka se v tomto procesu neuvažuje, není zde žádný činitel, který by toho byl schopen.[9] Významovou složku přiřadí lidský subjekt až výsledné formě, někdy však z důvodů kontroly (odlaďování) správnosti i mezivýsledku, tedy zase odpovídající formě. Nástrojem pro odvozování je umělý formální systém, což je umělý formální jazyk se zavedenou inferencí, obvykle definovanou množinou inferenčních pravidel a množinou výchozích jazykových forem – axiomů, kterým se přiřadí významy výchozích znalostí, jednoduchý příklad viz Exaktní věda), nebo[11] (příklad odvození relativistických vztahů). Je nutno zdůraznit, že s výše vytyčenou styčnou oblastí, koresponduje požadavek na použití výhradně umělého formálního jazyka, a tak i umělého formálního systému, a tak tedy požadavek exaktní interpretace všech použitých jazykových konstrukcí. Toto je podmínka nutná pro ustavení umělého formálního jazyka a pro princip fungování formální inference, tedy i pro tzv. manipulaci se symboly. Formální inference se odehrává v jednotlivých krocích probíhajících ve vhodné posloupnosti v čase, jedná se tedy o pohyb. Hybatelem může obecně být pouze nějaký vnější činitel, tedy informace nepatřící do umělého formálního systému. Říkáme jí metainformace nebo metaznalosti. Představují strategii zmíněného pohybu, třeba reakce na tahy protihráče nějaké exaktníhry, na příklad šachu. Formální inference může mít mnoho podob, podle typu použitého formálního jazyka nesoucího – reprezentujícího znalosti.
Reprezentace znalostí je schopnost jazyka (vyjadřovací síla) popisovat – reprezentovat jistou třídu znalostí. Základní klasifikací těchto tříd je způsob (filtr) poznání, kterým byly znalosti získány. Přirozené poznání používá jako filtr poznání vágnost a získané znalosti jsou inherentně vágní (Bertrand Russell)[10]. Odpovídající jazyk musí být rovněž inherentně vágní, tedy s vnitřní vágností interpretace, jazyk neformální, nejčastěji přirozený. Umělé poznání exaktních věd užívá diskrétní filtr Newtonův, získané znalosti jsou exaktní . Odpovídající jazyk je umělý formální jazyk s exaktní interpretací všech svých jazykových konstrukcí, tedy s nulovou vnitřní vágností oné interpretace. Jiné, dalším způsobem vytyčené třídy znalostí, vyžadující specifické formy reprezentujících jazyků, obvykle související s typem úloh. Jedny typy úloh vyžadují na příklad matematickou algebru, jiné třeba některou z formálních logik apod. Pokud jsou formální jazyky schopny modelovat vágnost (např. mírou důvěry, fuzzy nástroji, stochasticky), jedná se vždy jen o vágnost vnější, vnitřní vágnost tj. vágnost interpretace musí být u formálních jazyků vždy nulová.
Je možné vytvořit stroj, který může vyřešit všechny problémy, které lidé řeší pomocí své inteligence? Tato otázka by mohla určit budoucí směr výzkumu UI. Zároveň se tato otázka týká pouze chování strojů a ignoruje otázky zájmu psychologů, kognitivních vědců a filozofů; abychom byli schopni tuto otázku zodpovědět nezáleží na tom, zda stroj skutečně myslí, pro naše účely je postačující, bude-li se pouze navenek chovat jako myslící bytost.[12]
V současnosti nejrozšířenější postoj většiny odborníků na UI souzní s návrhem prohlášení z Dartmouthské Konference z roku 1956:
Argumenty proti této premise se snaží nalézt limity funkčního systému umělé inteligence oproti mechanismům lidského myšlení.
První krok k zodpovězení otázky je jasně definovat pojem „inteligence“.
Alan Turing redukoval problém inteligence ve své známé studii z roku 1950[13] na jednoduchou schopnost vést konverzaci. Bereme-li jako klíčovou složku lidské inteligence schopnost myslet, není skutečně její funkce po vzoru Descartova dualistického konceptu „ducha ve stroji“[14] či Hodgsonovy černé skříňky[15] ničím víc, než soubor interakcí s vnějším okolím.
Turing svůj model navrhl pomocí myšlenkového experimentu, ve kterém, podobně jako v argumentu čínského pokoje, počítač komunikuje korespondenčně tak, jako člověk, a uzavírá, že všechny rozdíly mezi hypotetickým systémem myšlení počítače, by mohly být známými informačními metodami smazány.
Poprvé byl Turingův test v praxi ozkoušen projektem ELIZA (1960). Moderní verzí Turingova myšlenkového experimentu jsou on-line programy, které rozhovor napodobují s dobrou přesností, využívají ale buď předchozích odpovědí jiných uživatelů (např. Cleverbot), nebo jednoduše položí otázku o podmětu předchozí repliky uživatele (ELIZA). Je ale důležité poznamenat, že i pokud předchozí uživatelé slouží pouze jako učitelé komunikačního robota, nesplňují podmínku definice schopnosti vytvářet vlastní myšlenkovou úvahu – jejich „myšlení“ není celistvý systém.
Turing poznamenává, že nikdo nezpochybňuje, že lidé dokáží myslet, přestože nemusíme rozumět podstatě „myšlení“. Turing proto říká, že bychom se měli namísto debat nad definicemi soustředit na tuto jednoduchou „zdvořilou konvenci“:
Kritici Turingova testu namítají, že je antropomorfní. Pokud je naším konečným cílem vytvořit stroje, které jsou více inteligentní než lidé, proč bychom měli trvat na tom, že naše stroje se musí úzce podobat lidem? Russell a Norvig napsali, že „učební texty letového inženýrství nedefinují cíle svého oboru jako stroje, 'které dokáží létat tak, že se podobají holubům natolik, že jejich létání není odlišitelné od létání holubů'“[16]
Nejnovější výzkum UI definuje inteligenci za pomoci tzv. inteligentních agentů. „Agent“ je něco, co vnímá a reaguje na své prostředí. Míra zásahu do prostředí následně definuje úspěch pro agenta.[17]
Definice, jako je tato, se snaží zachytit podstatu inteligence. Mají tu výhodu, že na rozdíl od Turingova testu se nesnaží zachytit podstatu inteligence v kontextu lidských rysů, čímž eliminují lidské rysy, které by mohly souviset s tím, co si spojujeme s inteligencí jen vlivem lidské evoluce. Mnoho nevýhod této definice ale plyne z jejího striktního rozdělení mezi myslícím a nemyslícím. Proto definice přisuzuje i termostatu primitivní inteligenci.[19]
Za pohled na vědomí v podobě určitých „stupňů“ (umělé bytí, postoj, podle kterého nelze vytyčit jasnou hranici mezi vědomým a nevědomým) se staví i J. Walmsley ve své knize Mind and Machine. Uvádí zde řadu dřívějších myšlenkových experimentů (Pylshyn 1980, Chalmers 1995), které zkoumaly, ve kterém momentě by v případě nahrazování neuronu za neuronem transistory se stejnou funkcí, ztratil mozek svou funkci „vědomí“. Tento pohled potvrzuje i fakt, že ani při pohledu na různé stupně poškození mozku nevidíme žádný důležitý „práh“, který by určoval, nakolik člověk vykazuje známky toho, co nazýváme vědomím.
Hubert Dreyfus tento argument popisuje následovně: „V případě, že se nervový systém řídí zákony fyziky a chemie, čemuž nemáme žádný důvod nevěřit, pak bychom měli být schopni reprodukovat chování nervového systému s nějakým fyzickým zařízením.“[20]
Tento argument byl poprvé představen již v roce 1943,[21] roku 1988 jej rozšířil Hans Moravec představením svého („Moravcova“) paradoxu (umíme vytvářet počítače, které porazí i nejlepší šachisty, ale vytvořit stroj, který napodobuje neuromotorický aparát pětiletého dítěte (např. dovednost chycení míče) je dosud neproveditelným úkolem)[22] a nyní je spojen především s futuristou Rayem Kurzweilem,[23] který odhaduje, že počítače budou schopny simulovat mozek kolem roku 2029. Počítačová simulace, ne v reálném čase, byla ale poprvé provedena na modelu thalamokortikálního systému v životní velikosti(1011 neuronů) již v roce 2005[24]. Z hlediska technologie vlastně chybí současným technologiím především výpočetní prostor, jedna sekunda simulace mozku z roku 2005 zabrala 50 dní (viz také[25]).
Argument v určité podobě představil také David Eaglemen v pořadu Cesta do hlubin lidského mozku, ve kterém říká, že pokud lze fyzikální systém popsat omezeným množstvím dat, je v teorii možné vytvořit přesnou digitální kopii mozku jako program. Pokud by to, co určuje vědomí, byl skutečně pouhý systém se všemi svými prvky, měla by ona digitální kopie také prožívat totožně své vědomí (komputionalismus).[26] Komputalismus je forma fyzikalismu, moderního materialismu, který z fyzikální podstaty světa vysuzuje nejen, že vědomí je plně poznatelný koncept, ale také že mozek funguje jako počítač, na základě postupů, které bychom mohli rozepsat do dílčích algoritmů tak, jako počítačový program.
Proti tomuto argumentu se postavil Hubert Dreyfus či John Searle. (Dreyfus například popírá, že by bylo možné popisovat lidské chování deterministicky, na druhou stranu připouští, že naprogramovatelnost mozku z fyzikalismu přímo vyplývá)[27] Nicméně, Searle poukazuje na to, že v zásadě cokoli může být simulováno počítačem; jdeme-li do důsledku, jsou tedy všechny procesy ve vesmíru „výpočty“, matematickými modely. „Chtěli jsme vědět, co odlišuje mysl od termostatu či jater,“ píše.[28] Proto by pouhé napodobování fungování mozku v dnešní době bylo jen doznáním, že jsme ve studiu inteligence a povaze mysli jen v počátcích.
V roce 1963 Allen Newell a Herbert A. Simon navrhli, že základním kamenem nejen lidské inteligence, ale i inteligence obecně, je práce se symboly. Názor vyjádřili následovně:
Tento výrok má široké důsledky: jednak z něho vyplývá, že symbolické myšlení je nutné pro vývoj inteligence a na sestavování „symbolů“ – mentálních reprezentací je postaveno i samotné lidské myšlení, a že stroje mohou být inteligentní (protože manipulace se symboly je pro inteligenci vystačující).[29] Další verzi této pozice popsal filozof Hubert Dreyfus, který to nazývá „psychologickým předpokladem“:
Rozdíl je obvykle mezi symboly na vysoké úrovni, které přímo korespondují s objekty ve světě, jako je <pes> a <ocas>, a složitějšími „symboly“, které jsou přítomny v počítači jako neuronové sítě. Raný výzkum UI, známý jako „good old fashioned artificial intelligence“ (GOFAI) – „stará dobrá umělá inteligence“, se v pracích vědců, jakým byl např. John Haugland, zaměřoval na takové vysoké úrovně symbolů.[31]
Tyto argumenty ukazují, že lidské myšlení nespočívá (pouze) na vysoké úrovni zpracování symbolů (nejedná se o argumenty proti umělé inteligenci obecně, pouze proti významnosti zpracování symbolů).
V roce 1931 Kurt Gödel dokázal svými větami o neúplnosti, že je vždy možné postavit „Gödelův výrok“, který daný konzistentní formální systém logiky není schopen dokázat. Přestože je ale tento výrok pravdivý, není Gödelův výrok v daném systému dokazatelný. (Pravdivost konstruovaného Gödelova výroku je závislá na konzistenci daného systému; použití stejného algoritmu na mírně nekonzistentní systém, se bude zdát jako správné, ale bude ve skutečnosti tzv. falešným „Gödelovým výrokem“.) Spekulovat pak lze o Gödelově domněnkách, že lidská mysl může nakonec správně zjistit pravdu nebo nepravdu jakéhokoli dobře podloženého matematického výroku, včetně Gödelova výroku, a to proto, že lidská mysl není redukovatelný mechanistický model. Za tento filozofický anti-mechanistický argument bojoval filozof John Lucas (od roku 1961) či fyzik Roger Penrose (od roku 1989).[32] Zastánci gödelovských anti-mechanistických argumentů proto často považují za nemožné postavit stroj, který by dokázal dokonale napodobovat činnost (idealizované racionální) lidské inteligence typu Turingova stroje (často rozšířeno na veškeré mechanické stroje).
Nicméně v současnosti (k roku 2015) panuje v akademické obci konsenzus, že lidské myšlení je nekonzistentní (nesplňuje podmínky oné racionální „mysli matematika“), a proto jako argument proti možnosti sestavení umělé inteligence není Gödelův teorém validní.[33][34][35]
Více pragmaticky se k věci staví Russell a Norvig. Poznamenávají, že Gödelův argument se vztahuje pouze na to, co může být teoreticky dokázáno, vzhledem k nekonečné kapacitě paměti a nekonečnému množství času. V praxi mají skutečné stroje („včetně člověka“) omezené zdroje a budou mít, stejně jako stoj, potíže s dokazováním mnoha vět. Zároveň ale není nutné dokázat všechno pro to, abychom se ukazovali jako inteligentní.[36]
Kritický pohled ke Gödelovým argumentům zaujímá i Douglas Hofstadter, ve svém díle Gödel, Escher, Bach: An Eternal Golden Braid. Uvádí, že tyto „Gödelovské výroky“ se vždy vztahují k samotnému systému, Hofstadter to přirovnává k Epimenidovu paradoxu:[37]
Toto tvrzení je pravdivé, pokud ho nevysloví Lukáš. To ukazuje, že Lukáš podléhá stejným omezením (teorie vztahující na systém samotný), jako všichni lidé i stroje, a proto je argument nesmyslný.[39]
Hubert Dreyfus se zastával názoru, že systém lidského mozku nemůže být zachycen jako seznam formálních pravidel. Tvrdil, že lidská inteligence a znalost závisí v prvé řadě na nevědomých instinktech, spíše než vědomém manipulování se symboly.[40]
Právě Turing argument Huberta Dreyfuse využil ve své studii z roku 1950, jako podklad pro „argument z neformálního chování“.[41] Nicméně Turing poznamenal, že jenom to, že neznáme pravidla, která řídí komplexní chování, nemusí znamenat, že tato pravidla neexistují. Napsal: „Nemůžeme tak snadno odolat myšlence, že zákony, podle kterých se řídí lidská mysl nelze zachytit. […] Jediný způsob, jak můžeme nacházet zákony, je empirické pozorování a nikdo dosud v žádné oblasti neprovedl tolik výzkumu, aby mohl říct: 'Tak jsme hledali dost, nejsou tu žádné zákonitosti.'“[42]
To je filozofická otázka, vztahující se k problému jiných myslí a obtížnému problému vědomí. Otázka se točí kolem toho, co znamená pro filosofii koncept „silné UI“ Johna Searleho.
Searle tuto pozici odlišuje od toho, co nazývá „slabá UI“:
Následně Searle tvrdí, že i když budeme předpokládat, že máme počítačový program, který se chová jako lidská mysl, stále před námi bude otázka vědomí..[7]
Důležité je, že ani jedna z pozic, které Searle nastínil, neohrožuje výzkum UI, protože neodpovídá přímo na otázku „Může stroj vykazovat známky obecné inteligence?“. Turing v odpovědi napsal: „Nepřeji si, aby vznikl dojem, že v podstatě vědomí nevidím žádnou záhadu… Nemyslím si ale, že odpověď musíme znát pro zodpovězení, jestli stroje mohou myslet.“[43] Russell a Norvig se shodují, že: „většina výzkumníků UI bere slabou hypotézu UI za samozřejmost, nehledě na to, co předkládá silná hypotéza UI.“[44]
Existuje několik vědců, kteří se domnívají, že vědomí je základním prvkem inteligence, jako Igor Aleksander, Stan Franklin, Ron Slunce, a Pentti Haikonen, přestože jejich definice „vědomí“ je velmi blízko „inteligenci“. (viz umělé vědomí.)
Takzvaný argument čínského pokoje představil John Searle roku 1980 a dodnes hýbe debatou o umělé inteligenci. Searle svůj argument staví kolem hypotetického Turingova stroje, v tomto případě počítače, který je schopen dokonale plynule konverzovat v čínštině. Searleho stroj však nevyužívá dráty a tranzistory, je to stroj, který sestává z rodilého Čecha v zamčené čínské knihovně s lístečky popsanými jednoduchými pravidly jako „謝謝 ⇒ 不客氣“ (díky ⇒ není zač). Pokud byste Čechovi pod dveřmi posílali čínské zprávy, mohl by vám odpovídat, přestože rozhodně neví, o čem mluví. Stroj samotný – zamčená knihovna – neumí čínsky. Proto, podle Searleho, nelze sestrojit fyzický systém symbolů, který by měl mysl, sebeuvědomění, vědomí, či mentální stavy.[45]
Přesto, podle Searleho, jeden takový existuje: lidský mozek. Searle prosazuje, že fyzický systém symbolů může mít vědomí pouze se „skutečnými fyzikálně-chemickými vlastnosti skutečných lidských mozků“,[46] a že existují speciální „kauzální vlastnosti“ mozku a neuronů, které vedou k vývoji mysli. V jeho slovech „mozek způsobuje mysl.“[47]
Za to, abychom automaticky neodhazovali materiál lidského mozku jako potenciální ohnisko problému se postavila i filozofka Susan Schneider. Píše, že vzhledem k tomu, že uhlík (nejčastější prvek lidského těla) vytváří se svými stabilnějšími čtyřčetnými vazbami mnohem víc kombinací sloučenin, už jen jeho chemická povaha určuje, kde astrobiologové život mimo Zemi (a posléze potenciální evoluci vědomí) hledají. Podle Schneiderové bychom proto neměly hypotézy o tom, že fyzikální podstata mozku může hrát v existenci vědomí roli, tak snadno vyloučit.[48]
Gottfried Leibniz učinil v podstatě stejný myšlenkový experiment jako Searle v roce 1714, s představou lidského mozku, který se rozpíná do velikosti mlýna, čímž se dostává, stejně jako čínský pokoj, na úroveň stroje (otázkou je, jestli pak neztrácí ony Searleho „fyzikálně-chemické vlastnosti lidského mozku“).[49] V roce 1974 zveřejnil podobnou úvahu Lawrence Davis V jeho úvaze by fyzický systém symbolů představoval tým telefonních komunikací, který si jako celek není při rozdělené práci vědom, jak komunikace pokračuje se zákazníkem, přestože jí je schopen. Roku 1978 vztáhl Ned Block tuto představu na celý „čínský národ“.[50]
Důležitou otázkou, která by problém čínského pokoje do značné vyřešila je, zda „vědomí“ (v Searleho pojetí) vůbec existuje. Searle tvrdí, že prožitek vědomí ze své podstaty nemůže být empiricky studován na strojích, tak jako na lidech a zvířatech. Daniel Dennett poukazuje na to, že přírodní výběr nemůže zachovat funkci zvíře, které nemá žádný vliv na jeho chování, a tedy vědomí (v Searleho pojetí) nemůže být produktem přirozeného výběru. Proto buďto vědomí přišlo z jiného zdroje, než je přirozený výběr, nebo platí hypotéza silné UI a vědomí může být detekováno pomocí vhodně navrženého Turingova testu.
Otázku možnosti uměle vytvořit vědomí můžeme obrátit: Existuje fundamentální rozdíl mezi lidským mozkem a strojem? Tato otázka nabyla na významu u před-osvíceneckých a osvíceneckých filosofů v podobě sporu mezi racionalismem a empirismem:
Hilary Putnam a Jerry Fodor na myšlenky o algoritimizaci myšlení navázali v komputační teorii mysli, podle které lze vztah mezi myslí a mozkem přirovnat ke vztahu mezi běžícím programem a hardwarem, a myšlení je tedy povahy čistě fyzické.[58]
Alan Turing poznamenal, že je i v současné popkultuře hluboce zakořeněno mnoho představ o myšlení, které jsou spojeny výhradně s člověkem.
Lidé často tvrdí, že stroj nikdy nebude laskavý, vynalézavý, krásný, přátelský, nikdy nebude jednat z popudu, nebude mít smysl pro humor, nebude schopen odlišit dobré od zlého, dělat chyby, zamilovat se, užívat si jahody se smetanou, přimět někoho ho milovat, učit se ze zkušenosti, nacházet „správná“ slova, myslet sám na sebe, mít tak rozmanité chování jako člověk či vytvořit něco opravdu nového.
Turing tvrdí, že tyto námitky jsou často založeny na naivních předpokladech o univerzálnosti stroje, nebo jsou „převlečené argumenty vědomí“. Napsání programu s alespoň jednou z těchto vlastností „nebude dělat velký dojem.“[59] Zároveň se ale všechny tyto argumenty dotýkají základního předpokladu vytvoření skutečné UI. Tato úvaha zahrnuje několik podobných otázek:
Pokud definujeme „emoce“ pouze z hlediska jejich vlivu na chování nebo na to, jakou funkci mají uvnitř organismu, pak se dostaneme k pragmatickému vědeckému pohledu na emoce, jako na kognitivní nástroj inteligentního agenta pro maximalizaci své efektivity. Pokud by emoce neznamenaly nic „víc“, Hans Moravec věří, že by „roboti obecně byli pevně emocionálně zakotveni ve víře, že jsou dobrými lidmi“.[60]
Koneckonců, emoce jsou v důsledku také jen produktem dlouhé práce evoluce. Strach nás nutí jednat hbitě, úzkost burcuje naši ostražitost. A empatie je nezbytnou součástí dobré interakce člověka s počítačem. Moravec proto vyvozuje, že roboti „budou usilovat o to, potěšit člověka se zdánlivě nesobeckým úmyslem, vnitřně však budou motivováni silnou pozitivní zpětnou vazbou. To bychom mohli interpretovat jako určitý druh lásky.“[60]
Emoce nicméně mohou být také definovány z pohledu své subjektivní kvality jako čistý prožitek. Otázka, je-li stroj schopen skutečně cítit emoci, či jestli by se pouze choval jako někdo, kdo emoce cítí, je ale jen jiná formulace otázky „Může mít stroj vědomí?“.[43]
Problém vykazování emocí by mohl souviset i se schopnostmi přijímat subjektivní informace – to však nemusí při bližším zkoumání podle některých výzkumníků znamenat více, než vztahovat příchozí informace sám k sobě. Co se týče vnímání emocí, v současnosti existují počítačové programy, které dokáží rozpoznat lidské emoce z videozáznamu, často včetně lhaní díky lidským podvědomým cukům v obličeji v řádech milisekund. V opačném směru (viz robot Kismet) však vývoj dosud do takových rovin nepostoupil.[61]
Vědomí vlastní existence a vlastního vědomí se jako znak člověka dostal do filozofie zejména vlivem science-fiction. Turing podobné otázky redukuje do jediné: „Může být stroj objektem vlastních myšlenek?“ Pokud nebereme v úvahu širší souvislosti, jako je vědomí, svobodná vůle či náboženské cítění, je zřejmé, že program typu debugger může být předmětem vlastních komputací stejně, jako cokoli jiného.[59]
Otázka kreativity je v podstatě klíčová pro filosofii umění: „Mohou umění vytvářet šimpanzi?“, „ Nakolik je fotografie uměním?“, „Mohli bychom náhodně vygenerovaný obraz považovat za umělecký?“. Alan Turing otázku výrazně zjednodušil: „Může nás stroj překvapit?“ – otázka pro zkušeného programátora takřka řečnická.[62]
Turing poznamenává, že s dostatečnou kapacitou paměti má počítač mnoho možností, jak se zachovat.[63] Proto musí být pro počítač triviální kombinovat „myšlenky“ do nových konstruktů.(Příkladem může být již první pokus o vytvoření programu pro vědecký výzkum roku 1977, Automated Mathematician[64] Douglase Lenata)
Roku 2009 sestrojili vědci z Aberystwyth University in Wales a U.K's University of Cambridge robota, který měl být vůbec prvním strojem schopným nezávisle přicházet na nové vědecké poznatky.[65] V roce 2009 také výzkumníci z Cornellu vyvinuli program Eureqa, který extrapoluje rovnice tak, aby seděla se zadanými daty (například dovede vyvodit zákony pohybu z rovnice pro pohyb kyvadla).
Pomineme-li otázku vědomí, sestává tento problém z jediné otázky, kterou se budou muset zákonodárci v budoucnu zabývat: „Může se umělá inteligence stát pro lidi nebezpečnou?“.[43]
Otázka je především studována s ohledem na potenciál inteligentní, plně autonomní umělé inteligence. Autor sci-fi a profesor informačních technologií Vernor Vinge upozorňuje hlavně na riziko, které v budoucnosti budou představovat počítače milionkrát inteligentnější, než lidé. Tomuto bodu říká „The Singularity.“[66][67] Tato hrozba je diskutovaná filosofií známou jako singularitarianismus.
Roku 2009 proběhla diskuze tohoto problému na konferenci technologických expertů. Shodli se na tom, že jistý stupeň autonomie mají stroje už dnes, dokonce se na ně spoléháme, když nezávisle vytyčují cíle vojenských útoků. Vyznělo také, že nemusí být nebezpečná samotná umělá inteligence, nějakou evolucí procházejí dnes i například počítačové viry. Vědomí sebe sama podle nich zůstane světovou hrozbou jen ve science-fiction, věří ale, že se spojeným globálním počítačovým systémem přichází jiné, podstatnější problémy.[66]
Někteří experti a akademici ale vyzdvihnuli problém užívání robotů ve vojenství.[68] Americká vojenská flotila již předtím ale vydala prohlášení, podle kterého by měla být s rostoucí komplexitou počítačových systémů, věnována větší pozornost tomu, jak jsou vytvářena zodpovědná rozhodnutí.[69][70]
Sam Harris na TED Summitu zmínil, že celý problém kvůli své zvědavosti bereme na příliš lehkou váhu (jak ukazuje úspěšnost apokalyptických filmů o robotech) a největším problémem je, že v současnosti si škálu inteligence představujeme příliš antropocentricky a možnosti vyšší inteligence nemusíme svým vnímáním chápat. V případě, že by umělá inteligence takových stupňů inteligence dosáhla, mohla by nás začít brát tak, jako my bereme mravence – ne že by se nás pokoušeli vyhladit, ale neotáleli by nás zadržet tam, kde bychom jim křížili cestu.
Sam Harris také poukazuje na to, že i kdyby byla zkonstruovaná inteligence jen tak inteligentní jako průměrný vědec, dokázal by svou vysokou výpočetní rychlostí oproti biochemických procesům mozku prostudovat nepřebratelněji více. Obrovskou výhodu by také získaly země, které by umělou inteligenci mohly využít jako prostředek boje, proto by podle něj příchod umělé inteligence mohl přinést stejné socio-politické problémy jako velké sociální rozdíly a nezaměstnanost. Podle Sama Harisse bychom měli, podobně jako tak učinily USA ve čtyřicátých letech v rámci Projektu Manhattan, sestavit tým nejlepších expertů, který by se rizika UI snažil rozebrat, protože zatím nemůžeme vědět ani za jak dlouho nás tyto rizika mohou ohrozit, ani jak bychom se jim měli bránit.[71]
V roce 2023 ředitelé předních laboratoří vyvíjejích umělou inteligenci, spolu s nejcitovanějšími vědci v AI jako je Yoshua Bengio, Goeffrey Hinton a Ilya Sutskever podepsali otevřený dopis s jedinou tezí: "Zmírňování rizika vyhubení [lidstva] skrze AI by mělo být globální pririotou na úrovni dalších rizik pro celou společnost, jako je pandemie a jaderná válka." [72]
Nakonec je zde otázka, možná mimo dosah exaktních studií: „Je lidské myšlení součástí nefyzické duše?“ I tomuto „teologickému argumentu“ věnoval Alan Turing odstavec své studie:[73]
Ve snaze sestrojit takové stroje bychom neměli začít slepě uzurpovat Jeho moc tvořit duše, stejně tak jako naši schopnost plodit děti, v každém případě jsme ale maximálně nástroji Jeho vůle vytvářet těla pro (nesmrtelné) duše, které již vytvořil.
John McCarthy, tvůrce programovacího jazyka pro umělou inteligenci LISP a samotného konceptu UI říká, že někteří filozofové UI budou ještě dále vést spory o tom, je-li…
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.