〔善用餘暉話霍金〕絮語錄——相關資訊來自友好
【天妒英才病魔闢易半世紀 人間笑傲捨我其誰不知遠】,霍公瀟洒走一會!
”上帝估計人類知道的太少,在n日帶來了愛因斯坦,
上帝估計人類知道的太多,同樣在n日,帶走了霍金“
R.I.P. 【巨星隕落】霍金今日去世,但人類對宇宙和AI的探索永無止境
【新智元導讀】霍金去世的消息令世界都陷入深切哀悼。霍金曾積極關注人工智能,指出我們要對AI發展保持警惕。3月14日也是愛恩斯坦誕辰139年的日子,上帝在同一天送來了一位天才,而帶走了另一位。人類對宇宙和A1的探索永無止境,讓我們以這樣的方式祭奠這兩位偉人。
據英國天空新聞等多家媒體3月14日消息,著名物理學家史提芬.霍金(Stephen Hawking)去世,享年76歲。
霍金教授的孩子Lucy ,Robert 和Tim在一份聲明中說:我們親愛的父親今天去世了,我們深感傷痛心。
他是一位偉大的科學家,也是一位非常的人,他旳工作和成就將會留存多年。他的勇敢和堅韌,他的才華和幽默感動了全世界的人們。
他曾經說過,”如果宇宙不是你所愛的人的家園,它就不是宇宙。“我們將永遠想念他。
斯提芬.威廉.霍金(Stephan William Hawking ),1942年1月日8出生於英國牛津,是現代最偉大的物理學家和宇宙學家之一。
霍金近幾年對人工智能十分關注,多次發表對人工智能發展的看法。他認為,人類須警惕人工智能發展的威愶,因為人工智能一旦脫離朿縛,以不斷加速的狀態重新設計自身,人類將無法與之競爭,從而被取代。
霍金多次敬告世人,關注人工智能的深遠影響:「強大的人工智能的崛起,要麼是人類歷史上最好的事,要麼是最糟。對於好壞我們仍無法確定,現代人類只能竭盡所能,確保其未來發展對人類和環境有利,人類別無選擇。」
霍金的孩子露西、羅伯特和蒂姆在一份聲明中說:”我們深表遺憾,我們深愛的父親今天去世了。“
對於其他科學家和朋友來說,霍金的直覺和幽默感,以他殘破的身體和合成聲音一樣多,像徵著人類心靈的無限可能。
不僅如此,他也積極參與到各項活動中,2017年1月初,在名為Beneficial AI 2017 的會議上,近年產學研領袖和中堅力量共同聯名發布”AI 23條原則,,從研究問題,倫理價值觀和長期問題三個角度宏觀地為AI發展提出規定。聯名者包括:Demis Hassabis , Ilya Sutskeve , Yann leCun ,Yoshua Bengio 以及馬斯克等等。霍金也在其中。面對A1可能會被誤用和烕愶人類的擔憂,這23條原則被期待能確保AI走在”正軌“,以獲得更加健康的發展。
霍金在2017年初簽署的這23條原則,分為研究問題,倫理價值觀和長期問題三個部份,以確保人人都能從人工智能中受益,同時保證AI研究和發展的正確方向。
人工智能已經為世界各地人的日常生活提供了有益的工具。人工智能技術應該在以下原則的指導下繼續發展,將為未來幾十年到幾個世紀的人給予的幫助和力量。
研究問題
1) 研究目標:人工智能研究的目標應該是創造有益的智能,而不是讓他像經歷生物演化一樣沒有確定的發展方向。
2) 研究資金:投資人工智能應該附帶確保該研究是用於發展有益的人工智能,包括計算機科學、經濟學、法律、倫理和社會研究中的棘手問題,例如:
● 我們如何使未來的系統具有高魯棒性,這樣才能夠讓它們在沒有故障或黑客入侵的情況下做我們想它們做的事情?
● 我們如何通過自動化實現繁榮,同時不打破資源和目的的平衡?
● 我們如何更新法律制度實現更大的公平和更高效率,跟上AI的發展步伐,管控與AI相關的風險?
AI應該具有怎樣的價值觀,應該具有何等法律和倫理地位?
3) 科學政策互聯:AI研究人員和政策制定者之間應該進行有建設性意義、健康的交流。
4) 研究文化:應該在AI研究和開發者中培養合作、信任和透明的文化。
5) 避免競爭:(Race Avoidance)開發AI系統的團隊應積極合作,避免在安全標準方面進行消減。
倫理和價值觀
6) 安全:AI系統應該在整個使用周期內安全可靠,並在可行性和可用性方面
有可驗証的衡量標準。
7) 故障透明度(Failure Transparency ):如果AI系統造成傷害,應該可以確定原因。
8) 司法透明度:任何涉及司法決策的自主系統都應該對其判斷提供合理解釋,並由主管人權機構審核。
9) 責任:先進人工智能系統的設計師和建造者是使用、濫用這些系統以及這些系統行動造成的道德影響利益相關者,他們有責任和機會塑造這些影響。
10)價值觀一致性:在設計高度自治的人工智能系統時,應該確保它們的目標
和行為在整個操作過程中與人類的價值觀一致。
11)人類價值觀:人工智能系統的設計和運行應與人類尊嚴、權利、自由和文
化多樣性的理念一致。
12)個人隱私:由於AI系統能夠分析和利用人類產生的數據,人類也應該有
權獲取、管理和控制自身產生的數據。
13)自由和隱私:AI應用個人數據,其結果不能不合理地限制人類真實或感
知到的自由。
14)共享利益:人工智能技術應當惠及和增強盡可能多的人。
15)共享繁榮:人工智能創造的經濟繁榮應該廣泛共享,為全人類造福。
16)人類控制:應該由人類選擇如何以及是否委托人工智能系統去完成人類選
擇的目標。
17)非顛覆(Non-subversion ):要控制先進的人工智能系統所帶來的力量,
應當尊重和改善社會健康發展所需的社會和公民進程,而不是顛覆這種進
程。
18) AI軍備競賽:應該避免在致命的自動武器開發方面形成軍備競賽。
19) 能力注意(Capability Caution ):在沒有共識的情況下,應該避免對未來AI
能力上限做出較為肯定的假設。
20) 重要性:先進AI可能代表了地球上生命發展歷史的一大深刻變化,應該通
過相應的關懷和資源對其進行規划和審理。
21) 風險:人工智能系統帶來的風險,特別是災難性或有關人類存亡的風險,
必須遵守與其預期影響相稱規划和緩解措施。
22) 不斷自我完善(Recursive Self –improvement ):對於那些不斷自我完善或
通過自我複制以能夠快速提高質量或數量的AI系統,必須採取嚴格的安全
和控制措施。
23) 共同利益:超級智慧只應該為廣泛共享的倫理理想服務,為了全人類而不
是一個國家或組織的利益而發展。
今天,也是愛恩斯坦的誕辰。
歷史如此巧合
這兩位偉大的科學家已經離我們而去
但人類對宇宙
人工智能的探索永無止境
讓我們以這樣的方式紀念他們
二○一八年三月十五日