霍金走了,去往另一個(gè)宇宙時(shí)空!
在生命的最后幾年,他留給地球人類的,是關(guān)于人工智能的一系列警告和預(yù)言。
霍金曾說(shuō),“在我的一生中,我見(jiàn)證了社會(huì)深刻的變化。其中最深刻的,同時(shí)也是對(duì)人類影響與日俱增的變化,是人工智能的崛起?!?/p>
他說(shuō),人工智能的崛起,要么是人類歷史上最好的事,要么是人類文明的終結(jié)。
幾年來(lái),霍金通過(guò)大大小小的媒體采訪,完整闡述了他對(duì)于人工智能發(fā)展的擔(dān)憂與建議。網(wǎng)易智能整理如下:
霍金認(rèn)同的:人腦與電腦沒(méi)區(qū)別
霍金認(rèn)為,生物大腦可以達(dá)到的和計(jì)算機(jī)可以達(dá)到的,沒(méi)有本質(zhì)區(qū)別。AI遵循了“計(jì)算機(jī)在理論上可以模仿人類智能,然后超越”這一原則。
霍金說(shuō),近來(lái)人工智能的發(fā)展,比如電腦在國(guó)際象棋和圍棋的比賽中戰(zhàn)勝人腦,都顯示出人腦和電腦并沒(méi)有本質(zhì)差別。
霍金擔(dān)心的:失控
一方面,霍金擔(dān)心一些人利用人工智能做壞事,比如最大化使用智能性自主武器,它將助長(zhǎng)戰(zhàn)爭(zhēng)和恐怖主義,加劇世界動(dòng)蕩局勢(shì)。
另一方面,霍金最擔(dān)心還是人工智能系統(tǒng)失控爆發(fā)的潛在風(fēng)險(xiǎn),人工智能一旦脫離束縛,以不斷加速的狀態(tài)重新設(shè)計(jì)自身。人類由于受到漫長(zhǎng)的生物進(jìn)化的限制,無(wú)法與之競(jìng)爭(zhēng),將被取代。到那時(shí),人工智能可能是人類文明史的終結(jié)。
霍金建議的:跨學(xué)科
霍金在演講中說(shuō)到,人工智能的崛起,是好是壞目前仍不確定?;艚鹫J(rèn)為,人工智能的發(fā)展,本身是一種存在著問(wèn)題的趨勢(shì),而這些問(wèn)題必須在現(xiàn)在和將來(lái)得到解決。
但是霍金呼吁,人工智能的研究與開發(fā)正在迅速推進(jìn),但所有人都應(yīng)該暫停片刻,把我們的研究從提升人工智能能力轉(zhuǎn)移到最大化人工智能的社會(huì)效益上面。
霍金同時(shí)提出,跨學(xué)科研究是人工智能一種可能的前進(jìn)道路:從經(jīng)濟(jì)、法律、哲學(xué)延伸至計(jì)算機(jī)安全、形式化方法,當(dāng)然還有人工智能本身的各個(gè)分支。
霍金所做的:調(diào)查研究
2016年10月,霍金在在英國(guó)劍橋建立了跨學(xué)科研究所“利弗休姆智能未來(lái)中心”,試圖解決一些在人工智能研究快速發(fā)展中出現(xiàn)的尚無(wú)定論的問(wèn)題。“利弗休姆智能未來(lái)中心”致力于研究智能的未來(lái),花費(fèi)大量時(shí)間學(xué)習(xí)歷史,深入去看。
2015年1月份,霍金與馬斯克等一些人工智能專家簽署了一份關(guān)于人工智能的公開信(這封公開信由“生命未來(lái)研究所”科學(xué)顧問(wèn)委員會(huì)起草),目的是提倡就人工智能對(duì)社會(huì)所造成的影響做認(rèn)真的調(diào)研,致力于讓人工智能的研發(fā)人員更關(guān)注人工智能安全。
最后,霍金對(duì)全世界的人是說(shuō),“我們站在一個(gè)美麗新世界的入口。這是一個(gè)令人興奮的、同時(shí)充滿了不確定性的世界,而你們是先行者。我祝福你們?!?/p>
人工智能是成就人類,還是毀滅人類,等待著人類繼續(xù)書寫。
霍金留下這千年預(yù)言,在另外一個(gè)宇宙時(shí)空坐觀。?
億配芯城一個(gè)現(xiàn)代數(shù)據(jù)共享的商城,讓您收(獲)滿滿,整板(BOM)配齊。
電話: 86-0755-82862036/ 13510757977 QQ: 2853094330