谷歌提出人工智能的五大安全規(guī)則
不久前谷歌與OpenAI公司、斯坦福大學和伯克利大學聯(lián)合發(fā)表一篇題為《AI安全的具體問題》的論文,猜想研究人員在研發(fā)和使用AI過程中可能遇到的具體問題。
感覺這個規(guī)則可以拍一部好看的科幻電影。
http://www.nyphb4.com
0
科客點評:感覺這個規(guī)則可以拍一部好看的科幻電影。
不久前谷歌與OpenAI公司、斯坦福大學和伯克利大學聯(lián)合發(fā)表一篇題為《AI安全的具體問題》的論文,猜想研究人員在研發(fā)和使用AI過程中可能遇到的具體問題。谷歌研究(Google Research)的Chris Olah)周二則在一篇博文中闡述了開發(fā)出更智能、更安全人工智能的五大規(guī)則。
Olah在博文中指出:“這些都是具有前瞻性的、長期的研究問題——這些現在看起來可能是小問題,但對未來系統(tǒng)則至關重要?!?/p>
Olah提出的五個規(guī)則是:
避免負面效應:AI在完成一組任務時不應該被周圍環(huán)境打擾。
避免獎勵黑客: AI應該妥當地完成任務,而不是借助一些迂回的方法。
可擴展的監(jiān)督: AI不需要接收不斷的反饋或有效的輸入。
安全探索:AI在學習時不應傷害自身或環(huán)境。
魯棒性到分布式的轉變: AI應該能夠識別出全新的環(huán)境,并在新環(huán)境中有效地完成任務。關注科客網官方微信kekebat,獲取更多精彩資訊。(cnBeta.COM,原標題《谷歌提出人工智能的五個安全規(guī)則》)
注:轉載文章,不代表本站贊同其觀點和對其真實性負責,本站不承擔此類稿件侵權行為的連帶責任。如版權持有者對所轉載文章有異議,請與我們聯(lián)系。
莫將
████████████看 黃 魸 手 機 瀏 覽 噐 咑 幵:275236.c○m 郗蒛資羱!無需下載、直接欣賞,妳嬞鍀!████████████錐椎
烏爾奇奧拉
真的很科幻…………