四川中衛(wèi)北斗科技有限公司

在線咨詢
微信

微信掃一掃

長按二維碼關(guān)注微信加好友

【巨星隕落】霍金今日去世,但人類對宇宙和AI的探索永無止境

發(fā)布時間:2018-03-14 16:48

霍金去世的消息令全世界都陷入深切哀悼。霍金曾積極關(guān)注人工智能,指出我們要對AI發(fā)展保持警惕。3月14日也是愛因斯坦誕辰139年的日子,上帝在同一天送來了一位天才,而帶走了另一位。人類對宇宙和AI的探索永無止境,讓我們以這樣的方式祭奠這兩位偉人。

據(jù)英國天空新聞等多家媒體3月14日消息,著名物理學(xué)家史蒂芬 · 霍金(Stephen Hawking)去世,享年76歲。

霍金教授的孩子Lucy、Robert 和 Tim在一份聲明中說:

我們親愛的父親今天去世了,我們深感痛心。

他是一位偉大的科學(xué)家,也是一位非凡的人,他的工作和成就將會留存多年。

他的勇敢和堅韌,他的才華和幽默激勵了全世界的人們。

他曾經(jīng)說過,“如果宇宙不是你所愛的人的家園,它就不是宇宙。”

我們將永遠想念他。

斯蒂芬 · 威廉 · 霍金 (Stephen William Hawking),1942 年 1 月 8 日出生于英國牛津,是現(xiàn)代最偉大的物理學(xué)家和宇宙學(xué)家之一、20 世紀享有國際盛譽的偉人之一。


霍金近幾年對人工智能十分關(guān)注,多次發(fā)表對人工智能發(fā)展的看法。他認為,人類需警惕人工智能的發(fā)展威脅,因為人工智能一旦脫離束縛,以不斷加速的狀態(tài)重新設(shè)計自身,人類將無法與之競爭,從而被取代。


霍金多次敬告世人,關(guān)注人工智能的深遠影響:“強大的人工智能的崛起,要么是人類歷史上最好的事,要么是最糟的。對于好壞我們?nèi)詿o法確定,現(xiàn)在人類只能竭盡所能,確保其未來發(fā)展對人類和環(huán)境有利,人類別無選擇?!?/p>

霍金的孩子露西、羅伯特和蒂姆在一份聲明中說:“我們深表遺憾,我們深愛的父親今天去世了。


對于其他科學(xué)家和朋友來說,霍金的直覺和幽默感,以及他殘破的身體和合成聲音一樣多,象征著人類心靈的無限可能。


不僅如此,他也積極參與到各項活動中。2017年1月初,在名為Benificial AI 2017的會議上,近2000名產(chǎn)學(xué)研領(lǐng)袖和中堅力量共同聯(lián)名發(fā)布“AI 23 條原則”,從研究問題、倫理價值觀和長期問題三個角度宏觀地為AI發(fā)展提出規(guī)定。聯(lián)名者包括:Demis Hassabis,Ilya Sutskeve,Yann LeCun, Yoshua Bengio 以及馬斯克等等。霍金也在其中。面對AI 可能會被誤用和威脅人類的擔(dān)憂,這 23 條原則被期待能確保AI走在“正軌”,以獲得更加健康的發(fā)展。


霍金在2017年初簽署的這23條原則,分為研究問題、倫理價值觀和長期問題三個部分,以確保人人都能從人工智能中受益,同時保證AI研究和發(fā)展的正確方向。


人工智能已經(jīng)為世界各地人的日常生活提供了有益的工具。人工智能技術(shù)應(yīng)該在以下原則的指導(dǎo)下繼續(xù)發(fā)展,將為未來幾十年到幾個世紀的人給予巨大的幫助和力量。


研究問題


1)研究目標:人工智能研究的目標應(yīng)該是創(chuàng)造有益的智能,而不是讓它像經(jīng)歷生物演化一樣沒有確定的發(fā)展方向。


2)研究資金:投資人工智能應(yīng)該附帶確保該研究是用于發(fā)展有益的人工智能,包括計算機科學(xué)、經(jīng)濟學(xué)、法律、倫理和社會研究中的棘手問題,例如:


我們?nèi)绾问刮磥淼腁I系統(tǒng)具有高度魯棒性,這樣才能夠讓它們在沒有故障或被黑客入侵的情況下做我們想要它們做的事情?

我們?nèi)绾瓮ㄟ^自動化實現(xiàn)繁榮,同時不打破資源和目的的平衡?

我們?nèi)绾胃路芍贫葘崿F(xiàn)更大的公平和更高的效率,跟上AI的發(fā)展步伐,管控與AI相關(guān)的風(fēng)險?


AI應(yīng)該具有怎樣的價值觀,應(yīng)該具有何等法律和倫理地位?


3)科學(xué)政策互聯(lián):AI研究人員和政策制定者之間應(yīng)該進行有建設(shè)意義、健康的交流。


4)研究文化:應(yīng)該在AI研究者和開發(fā)者中培養(yǎng)合作、信任和透明的文化。


5)避免競賽(Race Avoidance):開發(fā)AI系統(tǒng)的團隊應(yīng)積極合作,避免在安全標準方面進行削減。


倫理和價值觀


6)安全:AI系統(tǒng)應(yīng)該在整個使用周期內(nèi)安全可靠,并在可行性和可用性方面有可驗證的衡量標準。


7)故障透明度(Failure Transparency):如果AI系統(tǒng)造成傷害,應(yīng)該可以確定原因。


8)司法透明度:任何涉及司法決策的自主系統(tǒng)都應(yīng)對其判斷提供合理的解釋,并由主管人權(quán)機構(gòu)審核。


9)責(zé)任:先進人工智能系統(tǒng)的設(shè)計師和建設(shè)者是使用、濫用這些系統(tǒng)以及這些系統(tǒng)行動造成的道德影響的利益相關(guān)者,他們有責(zé)任和機會塑造這些影響。


10)價值觀一致性:在設(shè)計高度自治的人工智能系統(tǒng)時,應(yīng)該確保它們的目標和行為在整個操作過程中與人類的價值觀相一致。


11)人類價值觀:人工智能系統(tǒng)的設(shè)計和運行應(yīng)與人類尊嚴、權(quán)利、自由和文化多樣性的理念相一致。


12)個人隱私:由于AI系統(tǒng)能夠分析和利用人類產(chǎn)生的數(shù)據(jù),人類也應(yīng)該有權(quán)獲取、管理和控制自身產(chǎn)生的數(shù)據(jù)。


13)自由和隱私:AI 應(yīng)用個人數(shù)據(jù),其結(jié)果不能不合理地限制人類真實或感知到的自由。


14)共享利益:人工智能技術(shù)應(yīng)當惠及和增強盡可能多的人。


15)共享繁榮:人工智能創(chuàng)造的經(jīng)濟繁榮應(yīng)該廣泛共享,為全人類造福。


16)人類控制:應(yīng)該由人類選擇如何以及是否委托人工智能系統(tǒng)去完成人類選擇的目標。 


17)非顛覆(Non-subversion):要控制先進的人工智能系統(tǒng)所帶來的力量,應(yīng)當尊重和改善社會健康發(fā)展所需的社會和公民進程,而不是顛覆這種進程。


18)AI 軍備競賽:應(yīng)該避免在致命的自動武器開發(fā)方面形成軍備競賽。


長期問題


19)能力注意(Capability Caution):在沒有共識的情況下,應(yīng)該避免對未來AI能力上限做出較為肯定的假設(shè)。


20)重要性:先進AI可能代表了地球上生命發(fā)展歷史的一大深刻變化,應(yīng)該通過相應(yīng)的關(guān)懷和資源對其進行規(guī)劃和管理。


21)風(fēng)險:人工智能系統(tǒng)帶來的風(fēng)險,特別是災(zāi)難性或有關(guān)人類存亡的風(fēng)險,必須遵守與其預(yù)期影響相稱的規(guī)劃和緩解措施。


22)不斷自我完善(Recursive Self-Improvement):對于那些不斷自我完善或通過自我復(fù)制以能夠快速提高質(zhì)量或數(shù)量的AI系統(tǒng),必須采取嚴格的安全和控制措施。


23)共同利益:超級智慧只應(yīng)該為廣泛共享的倫理理想服務(wù),為了全人類而不是一個國家或組織的利益而發(fā)展。


今天,也是愛因斯坦的誕辰。

歷史如此巧合。這兩位偉大的科學(xué)家已經(jīng)離我們而去,但人類對宇宙、人工智能的探索永無止境。讓我們以這樣的方式來紀念他們。

掃一掃在手機上閱讀本文章

版權(quán)所有? 四川中衛(wèi)北斗科技有限公司    蜀ICP備14007264號-3    技術(shù)支持: 竹子建站