以文本方式查看主題 - 安易免費財務軟件交流論壇 (http://m.gangyx.cn/bbs/index.asp) -- 文學空間 (http://m.gangyx.cn/bbs/list.asp?boardid=14) ---- 復旦EMBA邀徐英瑾教授從哲學的視角探討人工智能的發展 (http://m.gangyx.cn/bbs/dispbbs.asp?boardid=14&id=227442) |
-- 作者:回首莫遺傷 -- 發布時間:2020/8/22 19:51:42 -- 復旦EMBA邀徐英瑾教授從哲學的視角探討人工智能的發展 作為對管理學專業課程的補充,“君子知道”復旦大學EMBA人文商道講堂秉承“商道人文,融匯貫通”的目標,讓學生從人文中汲取力量,擁有大智慧、大視野、大情懷!熬又馈比宋纳痰乐v堂依托復旦大學強大的師資力量,遍邀名師,為EMBA學生校友分享商道、人文和政經等熱門話題。 近日,“君子知道”復旦大學EMBA人文商道講堂特邀復旦大學哲學學院教授、博導、教育部長江青年學者徐英瑾從哲學的視角講述人工智能的發展。徐英瑾教授認為:現在的人工智能不是根據心理學所規定的發展方向來發展的,所以它的“擬人性”還很成問題。通用人工智能目前還達不到能夠應用的階段,但這是可以追求的,而且在某種意義上是必須追求的一件事情。 復旦大學哲學學院教授、博導,教育部長江青年學者。主要研究領域為人工智能哲學,知識論,認知科學哲學等。多次獲得上海市哲學社會科學優秀成果獎、全國高等院校優秀人文社會科學成果獎。著有《心智、語言和機器——維特根斯坦哲學與人工智能哲學的對話》,是國內目前最全面深入的關于人工智能哲學的研究著作,于2015年獲得中國首屆“科史哲青年著作獎”。 以下為根據講座整理的主要內容。 我們談論這個話題,有一個背景,那就是,公眾對人工智能有很高的期望。這其中,很多期望是建立在對學界實際發展狀況的誤解上。比如認為人工智能是個新東西,是這幾年冒出來的。事實上,“人工智能”(artificial intelligence)正式變成公認的學科名詞是在1956年美國的達特茅斯會議上。顯然這是距今很久遠的事情了。至于現在被談論很多的深度學習技能,前身就是人工神經元網絡(artificial neural network)。這個概念20世紀60年代就被學界注意到了。人工智能的奠基人之一阿蘭?圖靈生前也搞過一些粗淺的人工神經元網絡研究,這樣算的話,這個技術至少可以追溯到20世紀40年代了。所以,人工智能的主流技術其實并不新,它是經過傳統技術的反復迭代而來的。 AI技術的現狀:理想豐滿,技術骨感 對AI技術,主要有三種論斷。有人持樂觀論,認為AI的發展一定能夠在短時間內解決我們面臨的各種問題。這種論調描繪了一個烏托邦場景:回到家中,所有的設備都能夠通過5G網絡和物聯網與你心有靈犀。汽車是不用駕駛的,上了車啥事都不用干就可以把你帶到目的地。 另一種是悲觀論,表面看上去這和樂觀論背道而馳,實際上底層邏輯是一樣的。他們都認為,人工智能能夠消滅很多人的工作。只是,持有樂觀論的是站在頂層的人,他們本身就擁有財富、權力和資本,所以員工解散了不要緊,企業還是我的,我照樣賺 錢。悲觀論者更多站在那些被裁掉的人的立場,認為AI會對人類構成巨大威脅,甚至有可能帶來人類的滅絕。 我的觀點是泡沫論!芭菽辈皇侵窤I的未來一片黯淡,而是說在短期內,這項技術的發展無法匹配很多人的夢想。理想很豐滿,技術目前還很骨感。如果你意識不到兩者的差距,就會導致泡沫。 假如因為對AI持有樂觀態度而到市場上去融資,那就需要謹慎考慮。歷史上有成功的案例,比如IBM360計算機項目,但也有很多失敗的案例。許多關于AI的融資計劃都把未來描述得很好,餅畫得特別大,但最后很有可能會黃掉。 AI對我們生活的改變不是全局性的、顛覆性的,而是局部的改進。如果懷著顛覆人們生活的期望去投資項目,那十有八九會失敗。AI在網絡教育里的作用,在養老陪護上的作用等,我認為會有一些商機。但有些項目比如自動駕駛,就有很多泡沫。 使用傳統方法解決問題的能力在下降,這是危險的 我自己主張的泡沫論是建立在一些基本概念界定的基礎上的,比如“專用人工智能”和“通用人工智能”。專用人工智能就是只能干一件事或兩件事的機器,而通用人工智能就是啥事都能干。我舉個例子,李世石是一位棋手,但是AlphaGo是一個圍棋程序。如果我們把李世石看成一個智能系統的話,他就是通用智能系統。因為他還能做許多其他事情,比如他應該會泡面,會開車,他還會在和AlphaGo下完棋以后接受媒體采訪,談談感受。但是AlphaGo肯定不會開車,也不能在和李世石下完棋以后和媒體談談它的感受。人類的特點是,你在一件事上可能是專家,其他事情也能干,只是干得沒那么好。李世石開車肯定沒有韓寒好,這就是專用人工智能和通用人工智能的區別。 我們現在看到的人工智能都是專用的,它們的制作思路都是按照專用的思路來做的。比如人臉識別和語音識別,現在人工智能通過卷積神經元網絡技術的進步,已經獲得了一個極大的能力。一個人可以同時通過人臉和聲音識別他人,但對于人工智能來說,圖像識別的神經元系統和語音識別是兩回事。 《西部世界》劇照 但現在人們對人工智能的想象又是建立在通用人工智能之上的,這是一件很麻煩的事。很多人可能看過美劇《西部世界》,它是以美國西部的環境作為外景地拍攝的。里面出現的機器人都特別厲害,他們都有了人類的特征,就開始反抗人類。有人看了就會腦補,如果我們和機器人一起生活,會受到怎樣的威 脅?很多人對人工智能的思考就是建立在這類科幻電視之上的?苹糜耙曌髌肥鼙姀V,不需要具備多少科學素養,都能看明白。 我自己有一個觀點,軟科幻看多了,要看一些硬科幻。硬科幻距離今天的科學很近,比如《火星救援》。硬科幻可以起到科普的作用,能夠增強你對現實世界的把握能力,F在的人工智能都是基于大數據的,它對小概率和偶然性事件缺乏應對機制,所以面對這個充滿變動的世界,我們都不知道如何應對了。比如,一種新型病 毒、未知規模的洪水。 所以問題不是人工智能有了人的意識以后與人對抗,而是我們過多依賴人工智能以后,腦袋變蠢了。前不久我參加了一個在上 海 舉 辦的論壇,一位外國人工智能專家介紹他們與警方合作,用大數據來監測可能發生的犯罪?戳艘院,我心里就犯嘀咕,假設一個糟糕的狀況,某個掌握大數據的警 察變節了,他要做壞事,其他人是沒有辦法的。因為那么多年來警 察 辦 案 都 習 慣 于 調 監 控,然后對錄像進行分析,一旦這些數據都變成虛假的,警 察已經無法像以前的福爾摩斯一樣用大腦進行思考了。傳統的辦 案“武功”在下降,這個危險相當大。 不要以為有了現代化的東西以后就可以放棄傳統。假設我們在和另一個軍隊打仗,現在都能用5G網絡,敵人把我們的網黑了,我們怎么辦,只能用信鴿或者雞毛信,用最原始的方法。如果我們將人工智能的能力想象得很強大,同時又廢掉了我們用傳統方法解決問題的能力,這可能會將人類置于某種尷尬的境地。
現在的“深度學習”技術能夠真正到達通用人工智能的程度嗎?從哲學角度看,這是不可能的。如果說一件事在哲學上行不通,這是一種很嚴重的指控,就說明這件事從根本上說就是沒戲。比如永動機,在哲學上就是不可能的。 現在我來論證這一點,這里有個大前提、小前提和結論,這是最典型的三段論論證。 AGI(通用人工智能)系統的特點就是通用,既然是通用,就要處理全局性的問題。什么是全局性?就是在不同的理論體系之間進行一個抉擇的能力。不同的訴求彼此是有沖突的,你要想辦法找到一個中庸點。類似于某家政人員跑到別人家里做事。如果主人是一個知識分子,家里書特別多,他可能會要求書房要打掃干凈,但不能干凈到書都找不到了。讀書的人都知道往往書的易取性和整潔性是相互矛盾的,幾本書同時看如果都收起來再找再取就很耗費時間。所以,究竟是追求整潔還是易?這里面有個平衡點。這個平衡點是不能通過程序來設置的,需要和用戶進行磨合。 任何一個綜合系統都要有處理各種情況的能力。其中有些情況是非常極端的,比如自動駕駛汽車,道路的左邊有一個人,道路的右邊有五個人,車速太快,來不及剎車,那么到底往哪邊拐?這個時候程序突然得到消息,左邊的人是我們國家一位非常重要的專家,那你是不是會覺得專家更重要?但你轉念一想,每個人的生命都是平等的?档抡f過,人不僅僅僅是手段,也是目的,他說的人包括普羅大眾,不一定是專家教授或者是企業家。 這個時候就很麻煩了,不同的程序會打架。AGI就要處理全局性的問題,能夠在不同領域的沖突中得到一個平衡點。 小前提是,我們都知道人工智能是基于規則的,也就是一系列的邏輯原則。但是神經元網絡的學習思路不同,它沒有清楚的規則。有規則和沒有規則的區別是什么?我舉個例子。假設一個俄羅斯小伙子到少林寺學武功,語言不通,怎么辦?有個辦法,和尚做一個動作,小伙子跟著做,做對了就微笑,做錯了就棒喝。小伙子被棒喝以后,知道自己不對,但怎么個不對法?他一下子未必知道,就需要不斷試錯。不對的武術有千千萬萬種,就需要猜,一開始這種猜測都是隨機的。所以語言的好處很明顯,語言是基于規則的,規則本身就要用語言來表達,告訴你武術的規則是什么,然后再由人轉化為下層的運動。 但是神經元網絡不是這樣,它就是我們前面所說的那種很蠢的教學方法。人類錯了以后的反省是有道理的,是基于規則的。但是系統不是,它就是胡亂調參數,猜錯了,下次再猜。它就是通過大量胡猜,把事情慢慢往對的方向猜。人不能這樣學習,這樣會累死的。但機器可以,它們可以在很短的時間里完成人類不可能完成的巨量猜測。深度神經元網絡技術就是用強大的機器掩蓋了方法本身的笨。如果有現成的數據會非常好辦,但如果沒有優質數據,靠自己搜集就非常成問題。 目前的深度學習機制,根本問題就是缺乏跨領域學習的能力,這是人工智能無法AGI化的根本道理。不同的系統有不同的運作方式,國際象棋有國際象棋的下法,圍棋有圍棋的下法,人可以適應變化,但人工智能就很難適應。我們能不能把所有專用的人工智能整合為一套通用的人工智能呢?這其中又有一個問題,協同。這就和打仗一樣,需要各個隊伍的協同整合,需要有一個將領來領導,而人工智能并不具備總體的調配能力。 人工智能和人類智能還差在哪兒?一些專家提出了所謂的“卡特爾-霍恩-卡羅爾”三層智力模型。他們把通用智能分解成為很多東西,比如流體智力、晶體智力、量化推理、讀寫能力、短期記憶、長期記憶、視覺處理和聽覺處理等等。這個東西有一個很重要的用途,工作單位在招人的時候,可以測試他的智能。量化推理無非就是算術,讀寫能力就是你能不能看懂文章,讀懂要點。那么,什么是流體智力和晶體智力呢?晶體智力就是,老師現在給你一道題目,告訴你解法以后,看你能不能把前面做題的思路放在新的題目上,如果行的話,那事情就好辦了。流體智力,要求更高,相當大程度上,它強調是個靈動的狀態。 從這種比較來看,我們可以發現,現在的人工智能不是根據心理學所規定的這些發展方向來發展的,所以它的“擬人性”很成問題。 通用人工智能的確有人在研究,但現在主流的技術依然不是通用人工智能,全世界研究的隊伍估計也就幾百個人。但是,我始終認為,通用人工智能雖然達不到,但是是一件可以追求的事情,而且在某種意義上是必須追求的。說“人工智能應當永遠停留在專用狀態,而不應該進展到通用狀態”,這是一種謬見。說“今天的人工智能是通用人工智能”,這同樣是一種謬見。 復旦管院EMBA 復旦EMBA 復旦大學EMBA https://www.fdsm.fudan.edu.cn/emba |