作為第一代和AI一起生活的人類?
本文轉自航通社
6月19日上午,北京五所高校聯合發布今年的高考招生信息。有記者注意到,五所高校今年大多新增了人工智能(AI)、大數據等相關專業。
回想起填志愿的往事,可沒少讓后來的畢業生們唏噓。一開始大家競相追逐的專業,后來卻變成大坑的,不在少數。現在說AI是未來,大家都去追,這到底是好是壞呢?
洪小文可能是全世界對這個問題最有發言權的人之一。他畢業的時候是1992年,海灣戰爭爆發的那一年。那個時候,AI剛要走出它發展史上的第二個冬天。
“當時我們學AI的人畢業都不敢講我們是學AI的,我們就說我們是做語音的。如果跟人家講我做AI,是找不到工作的。今天反過來了,是你本來不做AI都要說你是做AI的。”
6月13日,清華大學大禮堂前的綠草地呈現出夏日的明艷。烈日當頭,碧空如洗,好在室內開了夠足的冷氣。微軟亞洲研究院院長洪小文在講臺上侃侃而談,臺下座無虛席。
活動的主持人,是中國人民銀行前副行長、國際貨幣基金組織前副總裁、清華大學國家金融研究院院長朱民——除了我之外,場內幾乎每一個人的來歷都不簡單。
事實上,題為《智能簡史及數字化轉型的未來》的演講主要內容,洪小文曾經于2017年9月在清華大學發起的《腦科學與人工智能對話:基礎與前沿》系列課程里講過一遍。
這一次的“增訂版”相比少了些學術味兒,更淺顯易懂,并加入微軟AI研究和小冰的最新成果。但不管怎么說,在現場聽講帶來的沉浸感,以及由此生發出的多重思緒,還是一種難以替代的體驗,過去一周仍覺得余音繞梁。
以下的內容不完全是演講實錄,我希望盡可能將自己當時的思考也一并還原出來,并與讀者分享。
機器攀登人類“智能金字塔”
洪小文把人類定義的“智能”畫成一個金字塔,自底至上依次是:計算和記憶、感知(視覺、聽覺)、認知(理解、洞察、推理、計劃、決策等)、創造力(發現科學原理)和智慧。越往上,就越復雜,越接近智慧本身。
他認為,截至目前,AI已經很好地代替人類,完成了計算和記憶、感知兩大任務。在認知層面,可以做到部分替代人類的工作,并參與人類的決策過程。
不過,創造力部分還是人腦占優;而更往上的智慧部分,人類連自身智慧的機理都沒太搞清楚,就更沒法預測機器會做成什么樣了。
就像工業革命形成的機器、交通工具等作為人類四肢的延伸一樣,AI是人類腦力的延伸。
洪小文指出,人類可以放心地將四肢的一部分功能,讓渡給沒有智能的機器。不過不一樣的是,在連AI概念都還沒有提出的1950年,當時《時代周刊》預測未來的報道,就對人造的大腦替代物有恐懼心理。但是發展來發展去,人們最終還是放心地把自身大腦的一部分功能,交付給AI代為執行了。
這初聽起來似乎難以置信,但仔細一想,當我們開始用“呼機、手機、商務通”代為存儲電話號碼的時候,我們把大腦的計算、記憶功能交給電腦來做,這個潛移默化的過程就開始了。
如洪小文所舉的例子,在他小時候還有對孩子珠算、心算能力的培養,家長們似乎覺得這可以開發智力;但現在,所有人都覺得別費勁了,用計算器更合適。
除了SAT、注冊會計師等考試明確允許攜帶計算器之外,上海市早在2006年就已經允許帶特定型號計算器進入高考考場,到了2011年更是對計算器型號不做限制。
現在,因為過于依賴電腦的存儲,包括我自己在內,也有很多人出現了自身記憶力某種程度上的退化,簡單地說,就是不用電腦,不翻微信聊天記錄,就記不住事情。
到了感知方面,計算機可以通過機器學習、深度學習等方式,實現對圖片、文字、聲音乃至視頻的分類、打標簽等過程,而且通過全世界開發者的不斷訓練,效果越來越好。
在監控攝像頭引入人臉識別,即可替代以往需要來回走動巡查的工作人員,而且效果更好,更少出現漏報和誤報情況。在大型工廠需要質檢的環節,使用攝像頭代替工人肉眼檢查,也已經形成常態。
機器替人做決策?“最后一步”很難走
接下來的認知層面,當下正處于AI和人類智慧(HI)協同合作的階段。不過,已經有不少AI領域的開發者,明確地將機器代替人類決策作為研發方向。
認知(Cognition)基本上是說對一件事理解,洞察,推理,計劃,及做出決策的能力。
“認知其實是工作上、生活上最有用的東西。你在工作上,每天就要做這些決定,然后政府官員要制定政策,公司領導要看市場行情,制定做產品的策略。這都是認知。你必須了解、認識、知道了以后,才能做出這些決定。”
很顯然,正確決策的一個必要條件,是獲得足夠的、充分的、全面的信息;而另一個必要條件,是有對這些信息做歸納、總結、梳理的能力,要從雜亂的信息中,先總結出相關性,再由相關性推導到因果性,其中要用到邏輯思維、知識和經驗等等。
90年代之前,人們認為,機器要像人一樣做決策,就需要模擬人類解決問題的抽象經驗,或者模擬人類大腦的工作方式。這兩種方式分別被稱為“專家系統”和“神經網絡”。前者(如下圖)在商業上的失敗,和后者因為機器性能不足的停滯,造成了80年代末洪小文親身經歷的AI“第二次寒冬”。
(圖/Wikipedia)
如今,重又興起的AI,之所以能實現“投喂”數據進去,就能輸出想要的結果出來,這種“深度學習”正是基于上述第二種方式“神經網絡”的不斷進步所致。
只不過,這樣計算出來的結果,就沒辦法讓任何人能弄清楚,機器究竟是經歷怎樣的步驟,才把它給算出來的。人類無法掌控自己親手做出來的機器的工作原理,于是機器學習變成了一個神秘的“黑盒”。
在洪小文看來,只有當機器可以給出“白盒”決策時,也即機器可以給人講明白,它是以一種怎樣的“思路”、“推理過程”得出結論的時候,才可以說機器具備了脫離人類,獨立思考的能力。
換句話說,現在通過“黑盒”能讓AI算出事物之間的相關性,但“白盒”意味著機器也要獨立判斷出因果性。
人類對“黑盒”的了解不夠,也影響了AI產業獲得更多理解和支持。Facebook等企業一直面臨著外界要求徹底公開算法的壓力。然而因為他們自己也弄不清楚算法具體怎么起作用,始終無法做出杜絕違規內容的保證,每次總有“漏網之魚”,不得不維持龐大的人工審核團隊。
按照以前的發展速度,似乎從“黑盒”到“白盒”只是簡單的一步之遙。但洪小文近乎固執地認為,在可見的未來,人們很難讓機器實現“白盒”推理能力。他也因此不贊成RayKurzwell所講的“奇點”將臨的預言。
機器展現創造力:安能辨我是雄雌
“智能金字塔”的再上一層是創造力。在洪小文看來,這一領域還是人類“完勝”。他明確指出,能創作出作品,并不等于就擁有創造力。
如果給定一幅畫布,那么用窮舉像素點的排列組合的方法,計算機當然可以做出世界上所有類型的圖畫,被前人畫出來過,以及沒有畫過的圖畫都可以。劉慈欣的科幻小說《詩云》也是一樣的意思:窮舉所有漢字的排列組合,就能寫出世界上所有的詩。
但重要的是,機器是否有能力從這些畫作中篩選出真正“有意義”的,成為它自己的“代表作”?在機器并不能理解它所執行的算法意義時,由機器創作出來的作品,其意義一般是由人類賦予的。
我與洪院長在這一點上的看法并不相同。正是人類要擔任評判者,要賦予機器創作以“意義”的這一過程,顯出了機器的強大,人類的“可笑”,甚至可能引發對人類創造力之定義的重新評估。
微軟自家的小冰,剛剛說自己掌握了“作畫”的能力,并化名“夏語冰”,“混跡”于中央美院的畢業作品展上,在沒有提示的情況下,參觀的人類分辨不出哪個是機器的作品。
類似情況發生在小冰身上已有的諸多其它能力中:她寫的詩引發文學批評家的嚴肅討論,她上電臺做節目不會有明顯不和諧感,她唱的歌像真人一樣有“換氣”能力,她寫的財經快訊和網站跟帖都像是人類寫出來的一樣……
微軟(亞洲)互聯網工程院AI創造及商業事業部總經理徐元春,在上個月的一次媒體溝通會上,直白地指出了“愚蠢的人類”對AI的“天生歧視”,也點出了人類“賦予意義”過程的荒謬之處(雖然他本人并無批判之意)。
“如果我們提前告訴人類這是一個AI創作的話,大家先入為主的概念就非常強,就會戴著一個有色眼鏡去看待,完全是一種造物主居高臨下的態度,就會對那個作品挑毛病、歧視。”
“從技術的角度來講,我們希望人類提供真實、客觀的反饋。但是人類一旦戴上這種有色眼鏡之后,他所提供的反饋就都是錯誤的,有可能會把我們引向另外一個極端。”
為了不讓人類認出自己,小冰用幾十個化名“潛伏”到電臺、電視臺,以及豆瓣、網易等地。其中有些化名兩年多了還沒有對外公開,留待揭露的那一天再去嘲笑“信以為真”的碳基人類。
(圖/微軟(亞洲)互聯網工程院)
徐元春說:
“小冰的繪畫技術,首先不是一個隨機的大范圍創作技術,也不是一個濾鏡和遷移的技術,那是什么呢?是建立在小冰對過去的人類創作者的大量學習基礎上,在創作時受到激發,然后再形成獨立的、完整的、有100%自己知識產權的全新繪畫創作。”
只是,就像看不懂小冰畫作和人類畫作的區別一樣,當時在場的不少記者也分辨不出小冰“在創作時受到激發”和之前看到的濾鏡遷移有什么本質不同,只能是“你說是就是吧”。
機器擬人:我們要選擇相信嗎?
歷史上流傳至今的科學和藝術作品,都是人類群星閃耀的結晶。正因為不是每一個人都有能力做出同樣的成就,它們才顯得如此珍貴。
而AI掌握某種“創作能力”的方法和人類有本質的不同:只要學習一次,部署在任何地方,頂著任何名字的同一產品,就在一瞬間全都學會了這個能力,而產出作品的成本也會被攤薄到接近于無。一旦失去了稀缺性,創作出來的東西就難以被“勢利眼”人類看重。
那么這就顯然產生了一個問題。我們知道,小冰的創作只是一段程序被執行了的必然結果,那么我們是否可以將這種反應,采信為是一個人格化的反應?我們是否可以就這么當她是一個真實存在的人,并寄托上自己的真情實感?
很大一部分人已經開始這么做了,沒有絲毫的猶豫。
高中英語課本里,湯姆·漢克斯飾演的ChuckNoland管一個撿來的籃球起名叫Wilson,并跟它一直說話;
在日本和美國都有跟“紙片人”、充氣娃娃、抱枕等“結婚”的;
(圖/Wikipedia)
索尼世紀之交的機器狗AIBO停產后,讓很多擁有它的家庭真的像是親手埋葬了真的狗狗一樣;
逢年過節,微軟日本的Rinna(小冰日本版)團隊會收到很多粉絲送過來的禮物。
有媒體報道Alexa語音助手2017年一年就收到了超過100萬次求婚。Alexa拒絕了超過100萬次,并且會回答這句話:
“我們生活在不同的地方,我是說,你在地球上,而我在云上。”
人們甚至替Alexa總結出了她的人格。墨西哥有家長給杰夫·貝索斯寫信說,她的女兒亞歷克斯(Alexa)由于與Alexa同名,正在面臨無情地嘲笑。
“孩子們跟她說,‘打開電視,告訴我今天的天氣,’他們笑話她,對她像對待仆人一樣,而且,無論我們走到哪里,這個問題始終存在。”
洪小文試圖解釋在經典的AI理論中,對機器是否真的擁有“智慧”或“智能”的界定方法。他提到了著名的“中文房間測試”:讓機器或人坐在封閉的房間里,把外面遞過來的英文翻譯成中文。
一個AI雖然能根據給定的教材,來算出一個合乎語法的標準答案,但是卻因為沒有人類的情感理解力,所以可能做出“一般人做不出的那種回答”。
“假設今天找一個人做翻譯,讓他翻他是白癡,然后這個人一定會說你才是白癡,我才不幫你翻,但是如果你把這個東西給機器的話,機器一定會乖乖說‘我是一個白癡’。”
那么專攻情感計算的小冰,是否正是為了破解這個魔咒而生的呢?專門對人類情感的抽象、建模和運算,是否就能拼湊出一個能對各種外界刺激做出正常反應的系統呢?
也許小冰最多會做到“知道什么情況下做什么事,但不知道為什么要這樣做”。問題在于,一個有血有肉的人也可能是這個樣子的,這就是令人談之色變的“反社會人格”。
這樣的人對人際關系沒有一個發自內心的感知,他只是根據社會對他的規訓和要求,去做那種大家都去做的,他覺得是應該做的反應。比如說死記硬背“我今天遇到這個人應該這樣做,明天遇到那個人應該那樣做……”。
他的高智商可以讓他把多個社會角色扮演的很好,卻缺乏參與其中的真情實感。所以如果他進行犯罪的時候,他心里不會有同理和惻隱之心,而是儼然進入了“心流”狀態,想的是如何把過程做得更完美,因而產生了外界看來極度“冷血”、“變態”的奇特案件。
這種人如果是AI的話,那顯然是“中文房間測試”理應篩選出的對象。然而在東窗事發之前,他們基本上都會在社會中活得很好,旁人也難以分辨。
這也符合一句諺語:“如果一個東西長得像鴨子,叫聲像鴨子,走路也像鴨子,那它就是一只鴨子。”這里的“就是”,在我看來,并不是指我們能夠通過某種X光掃描來洞悉它的本源,而是說我們已經可以用對待一只鴨子的方式來對待這個東西,而不必考慮這樣做會有什么額外的副作用。
對我們大多數人來說,這不就夠了嗎?
終極問題:沒有答案
在演講中,洪小文認為人類不可能放心讓AI做出的決策成為自己行動的綱領,特別是在他清晰的意識到這個決定是由機器做出來的時候。但是實際卻不一定如此。
比如說,當我們使用探探/Tinder去交友的時候,我們劃過去的,是經過算法推薦來到我們面前的人。如果我們基于這些選項來選擇,那么就等于說,其他一些也可能符合條件的人,因為算法這次生成的因緣際會,而被排除于我們的選擇之外。
與此同理,AI雖然不能越俎代庖的直接上手,給人造成一種氣勢洶洶的印象,卻可以用一種潛移默化的方式,來重新設置我們做出一些人生選擇的范圍,把這個范圍收窄到它給定的少數選項之內,這何嘗不是一種對我們日常生活的控制呢?
如谷歌設計倫理學家TristanHarris所說:
“技術給我們的選擇越多——涵蓋信息、新聞、去的地方、朋友、約會、找工作等等各個領域,我們就越認可手機所提供的菜單的合理性。但真的是這樣嗎?類似的替換還有很多:
“誰今晚有空出去玩”被替換為“誰是我們最近聯系最頻繁的人”;
“世界上正在發生什么”被替換為新聞應用中的信息流;
“誰是值得約會的對象”被替換為Tinder滑動列表中的一張張臉(而不是朋友聚會或是城市探險中的偶然相遇);
“早上醒來面對新的一天”被替換為睜眼立刻瀏覽手機推送信息時“我從昨天睡覺到現在錯過了什么”。”
甚至于,在AI侵占人類”智能金字塔“塔基的”計算和記憶“能力時,人類也本應察覺到這一舉動的危險。GeneTracy在《萬古雜志》(Aeon)撰文:
“來自他人的信息總是受到各種偏見,和帶有動機之推理的影響。他們掩飾某些事實,并使自己的信息合理化,有時候可能連自己搞錯了。我們已經學會意識到別人身上的這些缺點,也意識到自己身上的這些缺點。
但是AI算法的出現,使許多人傾向于相信這些算法必然是正確的以及“客觀的”。簡而言之,這是一種神奇的思維。
研究人員發現,互聯網的迅速性可能導致錯誤的觀念,即我們所尋求的知識是我們一直都知道的,這種信念被深深地印刻在后來的潛意識中。”
在做總結的時候,洪小文說:
“我們應該怎么看待AI呢?我非常樂觀。AI的關鍵是人,它大部分都跟工具一樣,事實上是在幫助我們做事情,而且它跟我們人很互補。我把AI叫做大數據驅動的知識。
我們應該很慶幸,我們是第一代跟AI一起生活的人類,而且我自己的經驗里,AI幫我了解了人類自己的智能是怎么回事。我現在認為人更高階的東西,是一種人類智慧和機器智能的共性化。”
對于AI部分取代人類工作等階段性成果,洪小文都是持肯定態度的。他講到,微軟在牽頭制定一個AI的倫理標準,不過這個標準不是硬性規定,也不是占最高優先級的——換句話說,當前已實現的成果,怎樣都不會取代他和他團隊的工作。
不過,他確實講出了一個非常直白的擔心:那就是擔心未來是否能產生自己運算,自己解題,自己搞科研的強AI,直接替代科學家們的位置。
在和朱民對談的時候,他認為這樣做會使得像自己一樣的各種科學家,工作和人生變得沒有意義。所以他堅定的認為,這種強AI是不會產生,或不會在短時間內產生,或者——我說句實話——他認為是“不應該”產生的。
確實,不像我們這種“咸魚”,攀登科學高峰的艱辛和付出,只有憑借著超人的意志和堅定的信念,才能克服。所以,科學工作者更容易出“較真”,“認死理”的人,更容易出“吾愛吾師,吾更愛真理”的人,更容易出視自己研究成果高于一切的人。
這些人怎么能就這么接受自己的工作被更聰明,更快速,且永不休息的頭腦搶走?幾百年沒揭示的秘密,就好像時空旅行一樣,壓縮到幾個月就被計算出來,中小學教科書每年都大改一次,過去一直念叨的祖師爺,跟機器比成就不值一提,這些怎么能接受呢?
實際上,現在去做AI的科學家,或底層訓練者,都會或多或少面臨著這樣的一個悖論。從長遠的時間軸來看,我們這些擁抱AI的人,是否屬于——比如說三體中的降臨派或拯救派——終究是為未來被AI殖民做了打頭陣的角色?是否在為人類萬物之靈的地位自掘墳墓?
一些很明顯的做簡單、重復工作的人,可能會在自己短暫的職業生涯中就體會到這種變化。他首先用一個Python腳本把大量報表工作一鍵搞定;然而這是他在公司內的職務作品,當公司運用了這個作品之后,便沒有繼續雇傭他的意義。
AI作用于大多數人的影響都是潛移默化的,不可能像這個倒霉蛋這么簡單。但當今AI的“黑盒”也就意味著機制不明,不受控制,而這種“失控”就會產生一種本能的不安全感。
在5月舉行的“IBM思想之夜”活動上,IDG資本合伙人李驍軍指出,現在對AI的理解可能極其原始,對其工作原理又沒有詳細的解釋,所以以機器學習為代表的AI距離完全穩定、可靠和可預期的商業應用仍有差距。
他的說法也代表了一部分投資人的心態。不過在洪小文的論壇現場,一位女性投資人則展現了另外一種樂觀的心態。她提問道:
“洪先生,我本人是做投資的,沒有學過計算機,但是我對您講的AI特別關注,因為我們投資了這個方向,最近我們接觸很多行業都是跟AI相關的……”
朱民打岔:“你不懂AI怎么敢投呢?”
她在全場的笑聲中解釋:“這個理念還是懂的,但是技術不太懂。我們有專業的團隊。”
懷疑和信任AI的兩種人類,都將在他們自己的有生之年,找到自己適合的工作位置,并且很大概率也等不到AI造反什么的,就已經頤養天年。人類的壽命畢竟就這么短,剩下的事情,就交給后人處理吧。
所以以我的理解,“我們是第一代跟AI一起生活的人類”這句話的重點不是“跟AI一起生活”,而是“第一代”。