Plurk FaceBook Twitter 收進你的MyShare個人書籤 MyShare
  顯示內嵌語法


█▉▊▋▌▍▎▏▏                       
           科 科 電 子 報

          http://scisci.url.com.tw
                       ▏▏▎▍▌▋▊▉█


        今日內容 ▼〈特刊〉2000.03.24
   ══════════════════════════
          ■ 電腦能有心靈嗎?
          ■ 論 J. Searle 的中文室論証
          ■ 從電腦的心靈到無心的人
   ══════════════════════════

────────────────────────────────
▌總編的話
────────────────────────────────

   一般的廚師在菜市場看到難得的材料,會做什麼反應,綠野
   不知道。但綠野這個另類廚師在看到難得的文章時,會想做
   點特別的小菜給你們吃。於是特刊就這樣產生了。特刊是不
   定期發刊的科科電子報,材料是綠野不小心看到的好文章,
   這文章的口味可能重些,不見得適合每一位讀者,但綠野貪
   心,捨不得將它們捨棄,就給你們來點特殊的小菜了,敬請
   享用。有人想點菜嗎?歡迎來信,scisci@url.com.tw。

                           綠野



────────────────────────────────
▌電腦能有心靈嗎?

▌schweigen˙著 http://scisci.url.com.tw/author/11.htm
────────────────────────────────

  1996 年,IBM 的一個西洋棋小組發展了一套「深藍」的程式,跟
世界棋王下棋,第一場就勝了,鬧了好一陣子的新聞,最後世界棋王
雖為人類保住顏面,但電腦強大的「思考」能力又讓世人一陣驚嘆。
隔年後,人類棋王的頭銜終於保不住了。像下棋這樣的活動是一種複
雜的思考,包含了對規則的熟稔、推論、計算、謀略....,而電腦卻
能下贏世界上最好的下棋腦袋,對悲觀的人來說,人類對機器的優勢
已經所剩無幾了。照這個趨勢下去,是否電腦有可能在不久後的未來
就和人類一樣擁有心靈了呢?

 「電腦能有心靈嗎?」其實早在六、七零年代時,就在美國引發爭
論了。這個問題的另一面是:「人心是電腦嗎?」也就是能用電腦運
作的方式來說明人類的心靈運作──傳統一直被視為不可說明的「黑
盒子」──嗎?

 早期有一派哲學家和人工智能的學者相信我們的確可以用電腦操作
的方式來說明人類心靈,所以要讓電腦擁有心靈就是記憶資料夠大後,
電腦就能慢慢發展出情緒、創造力、心境等等人類特有的心靈狀態。
這一派通常被叫做「計算主義(computationalism)」。

 1980 年,美國哲學家約翰.瑟爾(John Searle)發表了一篇文章
〈心靈、大腦和程式〉重重地打擊了計算主義的電腦夢。在這篇文章
中,他提出了現在英美哲學界和人工智能學界耳熟能詳的「中文室論
証(Chinese room argument)」, 用來反駁電腦能擁有心靈的主張。
瑟爾區分「強人工智能(強 AI)」和「弱人工智能(弱 AI)」,前
者是指:心靈(大腦)本身就是一部程式化的電腦;後者則只主張我
們可以借用電腦運作為模型來說明心靈的運作。瑟爾批評的只是強 AI。

 要討論瑟爾的中文室論証前,我們應先提一下圖林測試(Turing
test)。這是電腦先驅圖林提出來的一個測試標準,用來檢驗電腦是
不是達到人腦的境界了?換言之,測試電腦是不是擁有心靈了?圖林
主張讓我們同時跟電腦和人類交談,如果我們不能判斷我們所交談的
對象是電腦或人腦,那麼這部電腦就可以說通過測試了。(據說美國
曾在 1991 年舉行過這樣的測試)。我們就可以說它擁有心靈了。

 瑟爾的中文室論証便是以圖林測試為基點,他構思了一種情境,模
擬電腦操作的情況而假想它通過圖林測試,可是我們很難說即使通過
圖林測試的電腦可以擁有心靈。他的論証如下。

 他的中文室論証是如下的一種思想實驗:假想一個完全不懂中文的
美國人關在一個房間裏,房間裏有一本十分完善的英文手冊,完善得
可以翻譯一切中文的問題。現在有一個窗口,人們以寫了中文句子的
紙條遞進去,在房間的美國人則查手冊,假想所有的答案都可以在手
冊中找到,這個美國人找到之後,把答案再用中文(模仿手冊)寫出
來回答問題,從窗口遞出來,假設他可以完全通過圖林測試,但是瑟
爾問:我們能說這個美國人懂中文嗎?當然不。他還是一點都不懂得
中文。同樣的道理,電腦的程式就算再怎麼完善,就像一部事先編寫
好的英文手冊一樣,電腦根據程式運作就像美國人根據英文手冊翻查
一樣,美國人可以靠英文手冊通過圖林測試,電腦也可以靠完善的程
式通過圖林測試,可是就像美國人仍然不懂中文一樣,電腦也不知道
它所執行的程式要做些什麼,而完全不知自己在做什麼的東西能說有
心靈嗎?

 也就是說,人類能瞭解自己所用的符號之意義,電腦則不可能瞭解,
它只是在操作符號而已,所以電腦當然不可能擁有心靈。


※本文原載於 5/8/96 台灣文化資訊站台灣哲學的地平線板
 並刊載於 5/15/96 破周報 37 期資訊鐵板燒版



────────────────────────────────
▌論 J. Searle 的中文室論証

▌Schweigen˙著
────────────────────────────────

 當我第一次讀到 Searle 的中文室論証時,我就覺得其中似乎有不
對勁的地方。後來,我再讀到 Churchland 和 Searle 的論辯,我發
現我似乎找到了瑟爾論証的問題所在。

 讓我先簡單地重敘中文室論証之要點:中文室顯然是個類比論証,
瑟爾以中文室類比整部電腦,中文室裏的美國人類比於中央處理器,
美國人操作所依據的規則類比於程式;然後問:美國人懂得中文嗎?
可能每個人都會回答 No!

 然而,我認為就是在類比上出了問題了。我們都知道電腦有硬體和
軟體之分;在中文室裏的美國人所扮演的角色顯然是硬體──他必須
完全依照規則手冊的程序來操作,因此他這個人(他自己、他的大腦)
在這種情況下,顯然是不相干的,相干的只是他「依據規則來操作的
這個操作動作和過程」── 因此,問這個美國人懂不懂中文就好像問
中央處理器自己懂不懂中文一樣,若回答「懂」當然顯得很荒謬;但
電腦處理過程的核心在於軟體、以及在於硬體依軟體來 run 的那個 run
的動作和過程當兒。因此,在中文室論証中,我們應該問的是「美國
人依規則操作的操作程序、動作、或過程懂不懂中文」,而不是問美
國人自己懂不懂中文。

 我們可以假想用一個機器人來代替美國人,機器人的動作所依據的
程式可併入原先美國人依據的操作規則手冊中,美國人的功能可完全
由機器人代替,這樣一來,問題仍然存在:問機器人懂不懂中文跟問
電腦懂不懂中文沒兩樣──等於問題還是存在著,中文室論証反駁不
了「純語法演算能夠產生意義」這個論題。

 我反駁瑟爾論証的要點在於:美國人在這兒的角色應被限定為純粹
操作的「肉身機器」,把他這個人或大腦或心靈(隨便你喜歡那一種
)帶進來,乃是逾越了論証的權限。以下,我要反過來設計一個以電
腦來模擬瑟爾版的「美國人在中文室」的情況,可以反照瑟爾的提法
其實已先預設答案了,自然會得到瑟爾所願望的結論。當然,沒有這
個「模擬」,相信上述的論証也足以點出中文室論証的盲點了。

 這個情況如下:即假想有一部只能輸入機器語言才能運作的電腦A
(但能輸出 Basic 語言), 它透過語言轉譯器(它的功能是把輸入
的機器語言譯成C語言傳送到電腦B;再把電腦B傳送回來的C語言
譯成 Basic 語言而自電腦A輸出)而和另一部只能輸出入C語言才
能運作的電腦B連線;再假設所有發問回答的規則都只能由電腦B來
處理。現在,我們用機器語言來問電腦A問題,然後要它輸出 Basic
語言的答案。那麼,在中文室論証的情況中問美國人懂不懂中文,以
否定的答案來否決通過圖林測試的電腦能懂中文──就好像,要問電
腦A能不能「處理」Basic 語言時,先去問電腦B本身能不能「處理」
Basic 語言一樣──答案已在事先設定的情況中被設定了,電腦B自
己當然「不能」處理 Basic 語言。但它能夠透過語言轉譯器和問答
程式(規則)來「代」電腦A處理問題並予以回答,然而它卻不能直
接讀入機器語言──就處理機器語言的問題這方面來看,電腦B屬電
腦A的一部分,它能夠藉規則幫助電腦A回答問題;但問只能輸出入
C語言的電腦B能不能「處理」Basic 語言根本不相干。這樣電腦A
必須經由電腦B才能輸出 Basic 語言,那它能不能「處理」Basic 語言?

 我以為,這兒我們會產生如何界定「處理」這個概念的問題:是不
是要「輸出入」都用同一種語言才算是「處理」?或者只要「輸出入」
其中之一就可以了?又,或者要再進一步考察電腦內部運作的狀況
──如各種語言互相轉譯的狀況(語言轉譯器的翻譯規則)?同理,
在以純語法演算的電腦能不能「懂、理解」的問題中,我們勢必也會
引起「懂、理解」這種概念或其意義應如何界定的問題、或說懂、理
解這種「活動」意指什麼的問題?我們勢必要有一個公開、客觀的界
定標準,否則問這個問題根本沒意義。

 我第一個論証只能指出瑟爾的中文室論証不能有效反駁「純語法演
算能產生語意」的論題;第二個反模擬論証則進一步強化上述論點外,
還指出解決問題較好的方向──如果用「理解」來討論語意時,最好
從「理解」的界定開始:當人們說他們「理解」時,有那些公共特徵
或條件?如果電腦能符合這些特徵或條件,我們還能說電腦永遠不能
「懂」嗎?

 圖林測試其實是一個很好的、公開的「理解」標準──既然,人們
的對談中必包含了理解的現象,所以模擬人類的對談,然後以測試人
以為他在和另一個人對談為理解的門檻──乃是一個很好的公開判準。
但,有人不滿圖林測試背後的行為主義觀點,堅持要考慮內在狀態,
所以也才會有瑟爾的中文室論証。如果堅持電腦的0和1序列操作永
不符合理解時的內在狀態,那好,平行模型總可以吧!在這裏,我們
可能會有兩條路線。

 一是硬體的運作狀態,可公開觀察:當一個人理解時,他的大腦狀
態呈現什麼模樣?譬如,我們可以發明一種腦狀態探測機,把測試許
多人,把他們的理解時的腦狀態記錄下來(譬如諸腦細胞的互動狀況
等等),建立一個公共標準;如果,平行電腦的諸基本聯結單元也能
有同樣的互動狀況,那我們可說這平行電腦能「理解」了。(但序列
電腦就永遠不能「理解」了)。

 另一個是軟體的結構,也是可以公開的:軟體只是純粹語法的構造,
人類的「理解」結構能化約為純粹語法嗎?(對了,這裏有一個問題:
相應於序列電腦的機器語言;平行電腦的「機器語言」應該是怎樣?
是不是各個聯結單元的權重值?在序列電腦裏是由電流的通過或不通
過來代表;在平行電腦裏是不是以電壓、電流、電阻... 或其它電量
單位來代表?)這一關是最難通過的。我想,即使平行電腦產生和人
腦一樣的互動狀態,一定仍會有人反對:平行電腦的軟體仍然沒有語
意!(誰會相信各細胞的各不同權重值互相作用就會產生語意?)這
裏有一個語意 emerge 的關卡,讓人很難跨越。

 語意的問題跟 self-conciousness 共生共存;因為人們相信在理
解時,我們同時也在自我意識──自我意識到自己正處在理解狀態。
現在,我要從 self-consciousness 著手。一方面,我想討論怎麼來
界定理解?自我意識這玩意兒又是什麼?另一方面,如果堅持自我意
識存在的話,那我想給予自我意識一個可公開衡量的判準──似乎很
天方夜譚,但如果堅持自我意識永遠不能公開化、客觀化,像種魔術
、神祕的過程,那什麼也毋須再談了。

 首先,第一個問題是:我們怎麼說一個人理解了?是不是他說他自
己理解就算了?我舉一個很普通的情況:家教。老師為學生講解了,
老師如何判定學生理解了?用考試、測試 ──它的 implication 是
「應用」,即學生能把規則應用到同類的情況,表示他理解了;我們
可能也會認為學生根本不理解,他只是照本宣科而已。如此,表示「
同類的情況」也需要界定,有可能仍用相同的公式(規則)但稍加變
化,學生就犯錯了──這可能是資質問題──這種情況我們多半會說
「學生仍不理解」。因此,除非學生能妥善地答對稍加變化的問題,
他才是真正理解了。但,問題是「同類的情況」在單純的問題或知識
中,可能為數不多(如F=ma中,同類的情況可能只有要求求取F
或m或a的值而已,就是三種);若複雜的問題或情況(如大學的「
動力學」裏的公式和題目),其同類情況就相當相當多,如果考零分
當然不能說他理解,但考 20 分卻不見得不理解;(既然,主要談理
解語言的問題,我們也可設定這個家教是在教英文,同樣可推想)所
以,我認為從這兒可推出一個結論是:我們不可能為「理解」劃出一
條截然分明的界限來。而且,我們一般所謂的理解,其實已包含在圖
林測試中了。

 當然,很多人不願承認理解只是如此:他們堅持理解有一種自我意
識、豁然貫通的感覺,我們還能自我理解。可是,在家教的情況中,
學生堅持他已理解了,他「自我意識」到他理解了,老師能完全信賴
他的話嗎?仍要測試。反而,即使學生都考一百分,老師仍會懷疑他
是否真正理解他的解釋?譬如,老師可能認為理解是能「聯想」到某
個觀念上、或者能用「自己的話」來重新解釋等等──可是這些都太
模糊了,根本不能做為一個嚴格的判準;如果有個疑心病重的人,他
有可能宣稱所有的人「不理解」他說的東西。如此,測試應用能力乃
是界定「理解」最有可能的公開判準,至於要測試到什麼程度、或以
什麼方式測試,相信也可以形成一個共識。換句話說,「自我意識」
在公開判準的要求下,根本沒有位置和公信力可言。

 可能,有人會說:「自我意識不能建立公開判準,則同樣理解也不
能──理解不單單只是測試應用能力,人類的理解還有一種特徵:就
是 "默會(tacit)" ; 既然默會就不可言傳,自然也不是測試應用
能力所能達到的。」我們姑且同意這種宣稱。但我主張:默會仍然可
以測試。我們只要稍稍修改圖林測試的過程和目標,讓測試者直接面
對電腦,測試他和電腦交談能否達到默會狀態?如果測試者能產生這
種默會感,那誰還能堅持電腦不能理解?

 我以為,默會可以包含自我意識的概念──不僅自我意識自己的理
解,而且也意識到他人的理解,兩人共同處在理解狀態中──所以,
自我意識可以在默會做為一個測試目標下而予以公共化。

 或許,有人仍認為上述都是理解的「外在特徵」;我們應該挖掘理
解的「內在條件」──亦即,理解是依據什麼樣的規則、條件、模式
來運作的,即前述的語意突現 (emergence)問題──我以為像這種問
題似乎要從學習理論著手,我想這是下一個需要解決的問題,但我們
不能以為平行電腦有學習能力(不用平行電腦,現在就有很多學習程
式了)就能解決這個問題,在我看來,必須建構一個「能自我發生的
學習模型」才足以回答。這大概是當前認知科學的大熱門吧!

 後記: 現在我的觀點可能又有一些改變。我現在覺得第一人稱的判
準也是很重要的。


※本文原載於 5/13/96 台灣文化資訊站台灣哲學的地平線板
 並刊載於 5/15/96 破周報 37 期資訊鐵板燒版



────────────────────────────────
▌從電腦的心靈到無心的人

▌Schweigen˙著
────────────────────────────────

 在語言學和語言哲學的研究中,一般有語法學(Syntax)和語意學
(Semantics) 的區分,前者只考慮句子各組成部分的排列規則,後
者則關涉了意義。意義如何出現?或者意義是什麼?傳統上一直是個
謎。顯然,數位電腦以 0 與 1 的排列而操作,一切程式語言最後都
可以由 0 和 1 來加以編碼,而毋庸考慮任何語言單位的意義,因此
數位電腦被認為是依純粹語法來操作的認知系統。如果人的心靈同樣
也是一種依純粹語法操作的認知系統,我們便可以說電腦在原則上也
能夠擁有心靈。

 人類的心靈能理解、運用語言,語言則至少包括了意義和句法兩個
層面,但那個層面是對心靈而言是基本的?那個則是派生出來的?瓊
斯基的生成文法理論主張句法是人的心靈所本具的東西,不管語言的
表面形式和結構為何?各種不同語言的人們心中總是共有著「深層文
法(deep grammar)」,它根據生成和轉換規則來生成無限多的語句
,語意只是附著在語法上的派生性質。如此,瓊斯基的生成文法理論
便成以電腦來理解心靈的橋樑。

 以弗德爾(Jerry A. Fodor)為代表的心靈表徵論(representationalism)
則認為我們的心靈除了深層文法外,語意也是心靈的基本特徵。這些
基本特徵是從大腦的生化過程中所產生的特別功能,換言之,心靈乃
是大腦的特殊功能。因而大腦中必要存在相應於心靈的深層文法和語
意之「心語(mentalese)」又叫做「思想的語言」。 它依生成和轉
換規則而操作,也就是它仍包含語法演算的性質。可見得,這一派結
合功能論(functionalism)和計算論, 前者是指把心靈當成有限狀
態的系統,一定輸入會改變內在狀態而產生一定輸出,後者則指依規
則操作的語法演算。

 瑟爾的理論則主張,純粹語法形式的認知系統不可能擁有心靈。瑟
爾指出,按語法形式演算來定義的程式,不管是否能達到相當的複雜
性,永遠也不可能使電腦產生心靈認知時所特有的意向性本質。瑟爾
構思了一個「思想實驗」,即中文房間論証來說明語法形式的演算不
可能產生意向性──即語意性質。瑟爾的論証對哲學界和人工智能學
界造成不小的衝擊,物理符號系統論者雖盡力地想在語法運作上建立
語意性質(如 Jerry A. Fodor 的表徵論之嘗試),但結果總不能另
人滿意。以大腦神經系統的生理運作為模型的聯結論(connectionism)
再度復興,同時產生一個心靈哲學的學派叫做消除唯物論(eliminative
materialism), 主張我們所謂信念、欲望、意圖等所謂的意向性根
本不實在,應該予以消除,我們所有的只是神經系統的運作而已,這
些運作被我們假想為是產生了信念、欲望、意圖等心理現象,其實它
們是一套人為的語言,這套語言指涉了根本不存在的東西,就像「燃
素」指涉了根本不曾存在過的東西一樣,今天我們都知道燃燒是氧化
作用,根本不存在燃素,「燃素」這個語言就隨科學的進步而被消除
了。同理,科學(神經生理學)的進步同樣也可以消除這一套語言。
消除唯物論把這一套心理語言所搭架起來的心理學稱作「俗民心理學
(folk psychology)」(不只是通俗心理學,還包括今天大學心理
學所研究的一切──只要是用信念、欲望、思想等語言建立起來的通
通都算),所以他們主張俗民心理學為假,總有一天會被消除。這個
學派最有名的哲學家叫邱崎南(P.Churchland)。

 在 1990 年,美國著名的科學期刊《科學的美國人》邀請瑟爾和邱
崎南兩人發表文章對辯。

 瑟爾的論點和他在 1980 年的文章一樣;邱崎南則運用聯結論──
神經網路模型來証明機器將具思考能力的可能性。神經網路模型乃是
取自大腦中樞神經系統的運作模式,在一個多層網路間,每一層裡所
有的神經元均和另一層所有的神經元相聯結,當輸入層的神經細胞受
刺激時,刺激訊息便會分佈到隱藏層的每個神經元中,最後的輸出則
視聯結強度和安排而定。這樣的模型就不再是一系列的語法符號依規
則而運算,而是每單一符號所負載的訊息被分散到每個神經元上。邱
崎南認為瑟爾的中文房間論証即使是健全的,也只能對序列符號模型
有效,其效力無法達於平行系統。瑟爾則以為二種系統並本質上的差
異,仍是形式語法的演算,他可以把中文房間擴大成「中文體育館」
、甚至像整個印度那樣大的國家,容納許多人平行分佈操作,其結果
還是一樣,每個人照樣不懂中文。邱崎南則反駁說,若如此,瑟爾需
要 10 的 14 次方的人,而且當中的每個人不過扮演一神經元的角色
,誰會認為單個神經元能產生語意性質?瑟爾則認為數量根本不相干
,問題是在邏輯上, 0 和 1 再怎麼組合排列,還是沒辦法產生我們
看到「馬」這個字時,所浮現的馬的形像和瞭解「馬」的意義。

 其實,依邱崎南的聯結論立場,傳統上的語意、語法劃分已不再有
意義。所剩者只有聯結強度、門檻函數、活化值、權重值....等這些
東西。對邱崎南來說,所有者只是大腦中樞神經系統的生化過程。傳
統所謂的心靈和由心靈所衍生出來的一切心理學概念,或者心靈的各
組成部分,通通都只是一種假像,也就是,心靈根本不存在。真相是
人就是「無心的人」。


※本文原載於 5/20/96 台灣文化資訊站台灣哲學的地平線板
 並刊載於 5/24/96 破周報 38 期資訊鐵板燒版


────────────────────────────────
▌科科電子報 http://scisci.url.com.tw
﹂ 欲訂閱或取消,請至 http://news.url.com.tw

▌關於我們
﹂訪談室長期徵求問題,歡迎來信:scisci@url.com.tw。
﹂讀者意見,如未特別註明,視同授權刊登於科科電子報上。
﹂新闢活動看板一區,有任何科學或科幻活動皆可來信要求刊登。

▌關於轉載
﹂歡迎網路上之非商業轉載:
 →若欲轉載全文,請勿更動版面或刪減文字,並於標題註明「轉載」二字;
 →若欲轉載部分內容,請於文前註明「轉載自『科科電子報』」。
﹂商業性質轉載,請先徵求作者同意,謝謝。

▌關於智邦生活館
﹂歡迎申請智邦生活館免費電子信箱 http://www.url.com.tw/email.htm
﹂智邦生活館客服信箱: accmail@sys.url.com.tw
﹂欲刊登廣告: ads@url.com.tw
﹂本電子報內容不代表智邦生活館電子報發報中心立場
────────────────────────────────