可以肯定的說,到現(xiàn)在各國(guó)政府更多的是鼓勵(lì)人工智能的研發(fā),希望可以促進(jìn)人工智能科技的進(jìn)展,以及與產(chǎn)業(yè)的結(jié)合。例如2017年7月21日 ,中國(guó)國(guó)務(wù)院就發(fā)布了《新一代人工智能發(fā)展規(guī)劃》的報(bào)告這個(gè)規(guī)劃是這樣說的:
到2020年,人工智能總體技術(shù)和應(yīng)用與世界先進(jìn)水平同步,人工智能產(chǎn)業(yè)成為新的重要經(jīng)濟(jì)增長(zhǎng)點(diǎn),人工智能技術(shù)應(yīng)用成為改善民生的新途徑;到2025年,人工智能基礎(chǔ)理論實(shí)現(xiàn)重大突破,部分技術(shù)與應(yīng)用達(dá)到世界領(lǐng)先水平,人工智能成為我國(guó)產(chǎn)業(yè)升級(jí)和經(jīng)濟(jì)轉(zhuǎn)型的主要?jiǎng)恿Γ悄苌鐣?huì)建設(shè)取得積極進(jìn)展;到2030年未來機(jī)器人,人工智能理論、技術(shù)與應(yīng)用總體達(dá)到世界領(lǐng)先水平,成為世界主要人工智能創(chuàng)新中心。
在這個(gè)規(guī)劃中,看不到任何對(duì)“機(jī)器人統(tǒng)治”人類的擔(dān)憂,而是希望人工智能研發(fā)取得重大進(jìn)展。世界各國(guó)的報(bào)告也都如此,沒有哪國(guó)政府報(bào)告忽然發(fā)神經(jīng)說要小心人工智能機(jī)器人。但是在學(xué)者以及公眾層面,對(duì)這個(gè)問題還是比較關(guān)心的,特別是這兩年人工智能忽然火爆之后。
《人類簡(jiǎn)史》的作者赫拉利在續(xù)作《未來簡(jiǎn)史》中,對(duì)人工智能在未來將如何改變?nèi)祟惿鐣?huì)進(jìn)行了深入探討。
值得注意的是,赫拉利并沒有去分析,有自我意識(shí)的人工智能出來會(huì)如何。有自我意識(shí)的人工智能就能算是另一種生命物種了,但是這個(gè)理論基礎(chǔ)還不完備,再怎么討論也和科幻差不多。而科幻的可能性就太多了,可以寫無數(shù)種人類的結(jié)局,人工智能統(tǒng)治或者監(jiān)管是常見的一種”設(shè)定“。例如科幻巨著《海伯利安》,里面種種奇奇怪怪事,最后就歸結(jié)為超級(jí)人工智能搞的事,用這種方式來填坑。
赫拉利分析的是,即使人工智能沒有自我意識(shí),只是一些程序在執(zhí)行人類的指令,人類社會(huì)也會(huì)大受影響,甚至人本身作為一個(gè)物種都會(huì)發(fā)生大的改變。例如人類將自己的身體指標(biāo)交給計(jì)算機(jī)系統(tǒng)監(jiān)管,按機(jī)器的建議生活,而且發(fā)現(xiàn)這樣好處很多。再例如人類放棄自己開車,讓機(jī)器自動(dòng)駕駛。慢慢的人類就放棄了對(duì)社會(huì)的控制權(quán),而是由機(jī)器去控制。也許到某一天,人類就發(fā)現(xiàn),有實(shí)質(zhì)控制權(quán)的就是機(jī)器了,人類已經(jīng)沒有辦法回頭了。即使機(jī)器沒有自我意識(shí),但人類也只能讓它控制了。這算是機(jī)器統(tǒng)治人類的一種方式。
當(dāng)然也有其它可能性,特別是當(dāng)計(jì)算機(jī)與腦科學(xué)專家發(fā)現(xiàn)了機(jī)器自我意識(shí)的內(nèi)在秘密,生成了”強(qiáng)人工智能“的原型之后,這個(gè)問題會(huì)忽然一下變得非常現(xiàn)實(shí)。可以預(yù)測(cè),到時(shí)世界各國(guó)政府并不會(huì)歡呼人工智能研發(fā)取得巨大突破,而是真的會(huì)坐下來討論人工智能的發(fā)展路徑,象控制核武器一樣控制”強(qiáng)人工智能“的研發(fā)。例如要求人工智能研究團(tuán)隊(duì)必須遵守安全規(guī)則,保證計(jì)算機(jī)中的人工智能按物理安全隔絕方法,絕對(duì)不可能跑出來危害社會(huì)。
之前也有不少人擔(dān)心人類社會(huì)被核戰(zhàn)爭(zhēng)毀滅。但現(xiàn)在人類社會(huì)看上去還是控制了核武器的最壞影響,反而極大促進(jìn)了社會(huì)和平。那么人類能不能控制強(qiáng)人工智能,又是將來值得討論的問題。
如果只是說可能性,就象人類社會(huì)可能幾個(gè)大國(guó)互相扔核彈,人類全部滅絕,人類被人工智能統(tǒng)治這種可能性是存在的。但是也應(yīng)該存在好的可能性,人類社會(huì)找到了辦法,既發(fā)展人工智能未來機(jī)器人,又不被它統(tǒng)治。
可以肯定,人工智能的安全問題會(huì)比核武器更復(fù)雜,值得討論的技術(shù)細(xì)節(jié)更多。正如科幻小說中,人工智能比核武器是更常見的題材。