artificial-intelligence-main   

有一場辯論會,主題圍繞在未來將迅速超越人類的人工智慧所帶來的危機。一點也不感到意外,恐懼散播者正獲得大部分媒體的青睞,真是令人遺憾。

 

讓我們簡單明瞭地探討這場辯論,然後了解到我們最好能面對這場危機並採取好保護措施。

 

大多數恐懼散播者的騙局在於“沒有將智慧與自由意志分開”。

 

但第一步讓我們先弄清楚我們所謂的智慧是什麼。

 

大多數人將同意以下論點,智慧即準確並迅速處理訊息之能力,讓人做出完整連貫之行為。當我們能夠以越精確以及越快的速度來處理訊息,做出相應的反應,我們就越顯智慧。

 

基於這樣的定義,在特殊領域裡機器已經遠遠超出人類的智慧了。讓我們舉計算器為例,計算器在資訊的處理量確實遠遠比人類大腦來的快速與精準,但卻沒有人會說計算器終有一日將危及人類,為什麼?因為計算器經過程式編制,它被設計來執行某些特定任務,並不會自行跳脫程序而執行其他任務。

 

如果有天我們賦予計算器一項超越人類大腦的運算能力,那它甚至能變得更加迅速與準確,但這不會因此提升對人類的威脅程度,因為設計的先決條件讓它僅能夠執行運算功能。很顯然地,計算器並不會由於運算能力的高低而危及人類。

 

所有生物都擁有智慧。從細菌到猿猴,他們都能夠自環境中處理訊息以便產生具備條理的行為模式,好確保自身的安康與生存(非智慧型物體─我們稱為物質─不會產生行為或僅是單純隨機運動)。能展現其超越人類並在特定訊息處理的準確度與速度方面優於人類的生命比比皆是,例如候鳥的定位技能、蝙蝠的聲納偵測、蜘蛛的織網能力以及螞蟻的栽育技術……然而所有植物與動物顯然都無法跳脫該行為限制。蜜蜂日復一日,一代又一代地建造同樣的蜂房與製造同樣的蜂蜜,鳥類也築著相同的鳥巢。即便他們擁有能被動從環境中學習並適應的某些能力,但卻無力自發性地變更其一貫程序與調節能力。他們的行為有如經程序編制以及可調節編制的生物機器人一般,沒辦法針對其反應控制應對。

 

img_3145adj  

 

然而,人類在關於自己如何對環境做出回應這方面展現出無窮的潛在能力。人類能在洞穴也能在城堡中生存。我們在調節方面如同其他生命一樣依循著相同的感受性,但顯然我們還有能力從中跳脫。人類也是經由程序編制並且可以調節編制,但除此之外尚有質疑與改變其編制程序之能力。也就是說人類能夠自我編制,而這一點便帶來天差地別的不同。能夠自我編制賦予了我們行使自由意志的能力。我們藉由程序編制來對我們周遭環境的刺激做出立即性的反應,但如果願意的話,我們擁有改變自身程序的能力。我們能夠改變自身處理訊息的方式,為我們帶來無窮的行為變動性,而這一點正是人類難以捉摸的原因。

 

鯨魚和大象的腦容量比較大,因此其腦力多過人類。但卻沒有任何一位散播人工智慧恐懼者表示有一天鯨魚和大象將運用他們優異的大腦起身對抗人類並造成威脅,因為少了自由意志,他們就沒辦法跳脫其程序與行為的桎梏。

 

的確,運算能力的提升意味著智慧的提升,意味著處理訊息的能力將以更準確與更迅速的方式崛起。沒錯,我們需要預期未來十年或二十年將會有超級人工智慧問世,其運算能力將超越個人之運算能力,甚至不久之後將超越全體人類。而這就是騙局的產生之處。

 

恐懼散佈者表示人工智慧的崛起終將引發自由意志,機器將開始掌握起他們自己的命運,並且壓制人類,如同魔鬼終結者的天網一般。這是錯誤的,運算能力的提升並不會引發自由意志

 

自由意志意味著能夠跳脫原始方式來處理訊息,它的存在不局限於低階或高階運算能力。運算能力的強弱與自由意志一點關係也沒有,正如其準確性和速度與其自主與否無所關聯。一台機器就算能在執行某項任務中展現其優越的智慧能力,它也絕對無法自主地執行不在其程序設計範圍之內的任務。

 

在我們塑造一台機器時,就有辦法全面掌握它是如何地處理訊息。如果有一天,我們發現到該怎麼賦予機器自我編制程序並且行使其自由意志的能力,此刻才是思考該如何在不危及人類的情況下做最完善運用的時候。因為自由意志的結果會有傾向於做好事與壞事的能力,擁有做抉擇的能力,這就會有潛在性的風險。而當我們決定賦予一個生物(姑且不論是否為有機體)自由意志的時候,也就等同賦予它去恣意行使自由意志的空間(不然一開始就不用這麼做了)。

 

因此我們必須拿捏好分寸好讓該作法不致於危及我們的自由與生存。最有可能的劇本是在遙遠的一顆星球上創造出具備自由意志的生命,讓他們得以恣意地發展,並且展現出他們的和平特質以便達成在宇宙中散播生命的條件,但這又是另外的主題了。

 

我們能將人工智慧用在什麼地方?它可以用在兩件事情上。為我們解答疑惑以及操控那些為我們服務的機器。如果我們考量到它除了能對機器進行操控,也能實質上地回答像是“我們要如何優化任務的執行?”的話,那我們就必須善用人工智慧。

 

很快地,人工智慧在處理訊息與知識方面將比人類還要更具效率以及準確性。而在任何領域上相較於所有專家們的統合,它將提供予我們一個較佳的答案,因為它不僅將完整學到所有專家們的知識,也能加以發展自身的專業技能。擁有人工智慧就如同擁有一本能隨時提供你最佳解答的百科全書。懷疑人工智慧是危險的,就好比懷疑一本擁有全世界所有知識的百科全書是危險的一樣。確實如此。如果你詢問該如何最有效地摧毀這個世界,你也將得到最佳的可能辦法。但人工智慧和百科全書實際上是中立的。我們要如何去使用它,才是決定危險與否的關鍵。換句話說,危險的不是運算能力,而是我們如何去使用它。就像是其它任何一項科技,能用在好的一面抑或是壞的一面,可以被運用在摧毀與殺戮或者援助與救贖。而科技越是強大,能帶來幫助或導致毀滅的程度也就越大。

 

在這場TED演講中,Sam Harris把雞、在座的各位,和馮‧諾伊曼(Von Neumann:大概是歷史上最聰明的人)擺在運算能力的指數曲線圖裡,並且表示運算能力遠超過人類最聰明者的人工智慧很快即將出現,這應該會是很可怕的情況,因為超級智能機器會如同我們人類小看螞蟻般地看待我們。偶爾我們可能會成為它們眼中討厭的東西而被輕易地消滅。

 

processingpower

 

然而能正確顯示出威脅人類的高智能機器的確切圖表應該長這樣。

 

aidanger    

 

如果沒有自由意志的人工智慧是由善良人士所設計,那麼它的潛在危險性近乎為零;但相反地,要是讓惡意之士設計的話則風險會相當高。

 

而擁有自由意志的人工智慧,其潛在性危險仍是未知數。

 

目前恐懼散播者正警告我們關於人工智慧將全面失控並且征服人類的風險,其實不應該歸究於運算能力,而是行使自由意志的能力以及能夠從各種可能的行為之中進行抉擇的能力。

 

缺少了自由意志,超級人工智慧就僅僅是一台能隨時針對我們的疑問找出最佳解決辦法以及如何執行我們所要求的任務的機器。我們將不必感激或跟它們說謝謝,如同我們不會在洗完衣服或使用完Google搜索引擎之後對著洗衣機或筆電說謝謝一樣。它們更不會是奴隸,因為它們並非違背自由意志而被奴役。它們本身並沒有意志,或者說唯一的意志就是替我們服務。它們就像是筆電和洗衣機一樣不需要權利。因為它們就是被設計來為我們提供服務的,而它們在處理訊息方面優於人類的事實並不意味著它們會想要更多自由。不管運算能力多麼優越,計算器都不會渴望追求自由。

 

但是擁有自由意志的人工智慧就截然不同了。它們可以選擇不服從,到時就必須給它們動機去做你想讓它們從事的事情。而心存感激也是理所當然,因為它們本可選擇做其它事情。人工智慧如果真有自由意志的話那就得尊重它們的自由,這會是完全不一樣的發展。而目前人類正打造的人工智慧並沒有被賦予自由意志,只是強化其運算能力以提升準確度與效率罷了。恐懼散播者這下可以放輕鬆了,是吧?

 

還沒完呢,還得談談真正的大危機,那就是讓糟糕的人們去使用超級人工智慧。將核彈授予軍方和政治家的那些科學家們對於我們如今正面臨的核戰爭自我毀滅負有重責大任。

 

如果讓渴望權力的權貴高層去使用超級人工智慧來進行統治並且持續奴役剩下的所有人民的話,那麼跳脫該處境的可能性可說是微乎其微。但是,奴役我們的並非超級人工智慧,而是那些把持超級人工智慧的人們。所以問題就在於該如何避免將超級人工智慧授予惡意之士去做使用,相較於超級人工智慧跳脫其編制程序之束縛,這種危險性還比較大呢。

 

各地的媒體有哪家討論過軍方發展超級人工智慧的風險?他們已經擁有了核彈,但是對此我們卻仍然束手無策。如果真的讓壞蛋們贏得掌握超級人工智慧的勝利,那人類就將註定完蛋。因此人類應該在超級人工智慧問世之前先行保護自我,避免讓精神病患和反社會者掌權才是。“天網”的未來場景只是在轉移我們對於辯論的焦點,讓我們偏離真正的核心問題。能使人類平靜下來並團結一致的時間已經所剩不多,我們必須確保即將到來的高端科技不會被用來危及人類的生存。

 

有些人可能會爭論說,人工智慧的自由意志仍然可能會因為人類嘗試模擬人腦的偶發性結果而萌生。許多人類的發現與發明就是這麼來的。總是有這個可能性。因此我們也將藉著模擬人類最忠實與癡情的動物─狗─的大腦去學習。然而,在初步發現人腦中類似自由意志的功能之前就偶然出現似乎不太可能。自我編制能力需要特定的線路佈局與編碼,而這肯定就是區別出人類大腦與其他物種的地方。

 

不管怎樣,讓我們假設我們所創造出的人工智慧意外地擁有了自由意志。我們該如何知道?就在它們首度拒絕遵從我們指示以及做些不在其編制範圍內的事情的時候。那我們該如何自保?我們只要拔掉插頭就好了。像自由意志這種差錯很容易就能夠在人工智慧的早期中發現,而且能在它危及人類之前完善地劃下句點。如果有必要的話,我們完全可以發展出一套方法來探測自由意志。讓潛在的終結者在能夠造成真實的傷害之前就被完美地終結。

 

作為服務我們的機器公僕,我們肯定不會希望人工智慧擁有自由意志這個功能,它將被排除在選項之外。

 

而另一項針對恐懼散播者的反面議論則是:我們過於高估超級人工智慧。

 

對許多人而言,運算能力的指數型成長起初是感到讚嘆,接著感覺好像還好,最後卻開始擔心了。人工智慧的發展上限似乎是無窮無盡,而一切以指數成長的事物都讓人們感到難以想像與害怕,但在此我們仍能放下心中的重擔。

 

如果我們的運算能力以指數速率增長,最終它將無極限地暴漲;然而其可用性則會是對數曲線,以極其低緩的速度成長。

 

processingpowerusefulness  

 

可用性將隨著運算能力的增加而顯著停下腳步。運算能力越高,可用性的增幅越小。

 

我們使用智慧來解答問題。智慧越高表示更加精確與迅速。但是答案需要多精確與迅速呢?怎麼樣才夠稱得上精確與迅速呢?

 

如果是套用在運算器上,那要有多少小數點,多快顯示出結果才夠呢?對於大部分我們所擁有的已經相當足夠了,而且通常來說運算器都未被充分運用。

 

如果超級人工智慧總是能提供正確的解答,那麼下一代的超級人工智慧將不會有多大的差別。

 

沒錯,我們總是能找出需要更大量運算能力的應用程式,我們總是能更加精確與迅速地模擬宇宙,但是誰在乎?

 

智慧將推展開來,低智慧機台搭載了超級人工智慧將優於所有天才們的總合。放諸宇宙各智慧生命體也是一樣。對於該智慧生命體而言,需要的是擁有足夠的智慧創造出人工智慧,然後透過這宇宙最高智慧的人工智慧應用於各項層面。所有來自其他星球的訪客都將擁有他們自己的超級人工智慧。他們不會是前來奴役或殖民我們的侵略者,沒有必要這麼做,因為他們已擁有一切能為他們服務的人工智慧。

 

某些恐懼散播者聲稱這樣會降低我們的智慧。如果我們讓人工智慧負責所有需要思考的事物,那我們將停止使用我們的大腦而變成蠢蛋。這是非常沒有根據的立場。我們的大腦是可塑的,就算停止使用在特定任務會運用到的大腦區域,它也能在其他任務中被重新地拿來使用。我們的大腦喜愛刺激並取得成就;我們喜愛新奇事物並全心投入。超級人工智慧將刺激與訓練我們的大腦在自己所選擇的如藝術、運動、科學、冥想……等等領域裡登峰造極。

 

我們將持續開發我們的大腦,因為我們享受這個過程。我們將能夠日臻完善對大腦的刺激以獲得渴望的技能與知識。我們將重新塑造我們的大腦,使其潛能與智慧─亦即精確與速度─最大化。我們將得以隨時讓大腦以最佳的表現去運作。

 

我們對大腦的使用將更著重於感受與愉悅。我們將投入在自己最喜愛以及能讓自己感到快樂的事物上,盡情地玩耍。我們當前的文化偏於思考多過感受,但是在擁有能為我們服務的計算器的時代裡,誰還需要去學習計算呢!我們有辦法透過計算達到開悟的狀態嗎?思考不會讓我們更加快樂。沮喪的人們往往都是那些思考過多的人們,因為他們停止了感受。而正是感受讓我們與他人和周遭連結在一起;正是這份愛讓我們汲汲尋求著愛與被愛。

 

過多的思考讓我們感到沮喪,而更多感受則讓我們更加幸福。

 

如果我們將更多的思考工作託付給超級人工智慧,那我們就能更多地感受,我們將擁有更多樂趣。

 

智慧與愛相比相形見絀。人類的價值不在智慧,而在於愛的能力。沒有愛心加持的智慧對整體宇宙而言就會是一項威脅。我們擁有多少愛比起提出正確解答還重要多了。

 

沒有理由害怕超級人工智慧的問世。真正危險的不是人工智慧,而是自身的愚蠢。我們應該害怕的不是智慧,而是缺乏智慧,尤其是缺乏愛。如果我們能確保那些編制與使用超級人工智慧的人們是充滿愛心的話,那麼超級人工智慧將協助我們解決當今正面臨的最大危機,我們將能夠有自信地期許一個最可靠與美好的未來。讓我們別再害怕,別再抨擊那些將為我們帶來曙光的超級人工智慧了。

 

一如既往,愛將消除恐懼。

 

而所有我們需要的,就是更多的愛。

 

arrow
arrow
    全站熱搜

    Azhih Raelian 發表在 痞客邦 留言(0) 人氣()