<rp id="6lg6t"><nav id="6lg6t"><button id="6lg6t"></button></nav></rp>
    <tt id="6lg6t"><noscript id="6lg6t"><delect id="6lg6t"></delect></noscript></tt>

  • 首頁 > 業界

    要是人工智能殺了人,我們應該怪誰?

    時間:2015-08-18 09:40:47 來源:雷鋒網 作者: 智界科技

     

    55d2853c77f81.jpg

     

    關于人工智能倫理問題,特別是涉及到開發機器人武器之類的問題,我們已經討論過很多次了。實際上,之前我們更多的是把人工智能作為一種人類已知威脅來展開討論的。那些喜歡電影《終結者》的粉絲應該對它的情節還記憶猶新吧,片中人工智能“天網”希望終結人類,如果這一幕真的發生,那么我們現在討論什么監管啊,責任啊,似乎都毫無意義。但所謂千里之堤毀于蟻穴,尤其在法律哲學家John Donaher的眼里,如果能夠仔細思考這些問題的話,說不定會有助于減少未來可能存在的風險。

    人工智能的監管與責任,其實和安全與公共福利一樣,都像是硬幣的正反面。監管的目的,是為了確保人工智能系統盡可能的安全;而責任,其實就是為了當人工智能系統出錯時,我們可以找到可以追究問題的人,或者再說的準確一點兒,就是找誰可以獲得法律上的賠償。

    應該向誰追責呢?

    讓我們先來談談責任問題吧。首先,我們可以模擬一個侵權(民事)責任問題,想象下,在不遠的將來可能會發生這樣一個場景:一輛無人駕駛拖拉機原本應該按照指令在A農民的田里播種,但是奇怪的是,它卻把種子播種到了B農民家的田里。

    讓我們先假設A農民是完全按照操作手冊來使用那輛無人播種拖拉機的,同時,我們也假設A農民無需再做其他額外的操作,比如在農田交界處設置無線電信標,等等。那么現在,假設農民B要來控告這次錯誤播種事件(我們暫且不考慮諸如滋擾和侵犯等問題),會遇到哪些問題呢?。

    實際上,有很多問題需要被回答,這個事故是農民A的責任嗎?可能不是;那么,是無人播種拖拉機廠商的責任嗎?有可能,但在此之前,我們是不是該明確與這些問題相關的責任和標準呢?比如無人播種拖拉機的行業標準是什么,制造商的產品規格是否符合相關標準呢?不僅如此,如果自己的土地被他人種植上了其他農作物,這是否算是財產損失,又是否能否追溯經濟賠償呢?

    在一連串問題之前,我們其實是先假定了無人播種拖拉機里面的系統軟件是由制造商開發的。那么接下來又有新的問題出現了,如果那套人工智能系統是由第三方開發公司完成開發的,該如何處理?還有,系統內部的軟件代碼是由多人合作完成的,又該如何界定各自的職責?

    隨著時間的推移,人工智能系統將會越來越不依靠傳統的經典算法和代碼,而且他們也會展示出更多我們無法預料到的行為,值得一提的是,這些行為沒有人可能預測得到,甚至包括人工智能系統的創造者也無法預料。但重要的是,可預見性,其實是處理責任過失問題中一個非常關鍵的組成部分。

    為了能夠讓讀者更好地理解可預見性問題,我們才會假設了上面那個無人播種拖拉機的案例,或許十年、二十年之后,人工智能已經不再是簡單的種錯莊稼這件事兒了,它可能會是某個意外讓人們受傷,更嚴重一些,人工智能可能會不小心殺人。所以,如果我們的法律無法適時作出改變,那么未來將會導致更多問題出現。就拿上面那個人工智能種錯莊稼的事情為例,當無法實現可預見性,最終的結果就是沒人承擔責任!

    責怪人工智能機器人

    為什么我們不干脆去責怪機器人呢?畢竟,關于人工智能人格也有過討論,而且人工智能系統本身也有擔負刑事責任的可能。

    但是,這種方法在實際應用時又有什么不一樣呢?這里,還是借用別人曾經說過的一句話吧。“人工智能系統真的會像著名小說家艾薩克·阿西莫夫筆下的機器管家那樣嗎?遵守法律,遵從道德良知,還能保護銀行存款?”

    我們姑且不去討論人工智能系統是否可以被起訴,但人工智能制造商和開發商們必須受到監管。只有這樣,才有可能將一些無法歸責的各方,用嚴格責任賠償(注:嚴格責任賠償是指只要造成了損害,不論行為人有無過錯,都要承擔賠償責任。 常見的適用于無過錯責任原則的,有從事高壓、劇毒、高速、放射等作業造成他人損害的。工傷是典型的適用無過錯責任原則的,也就是說只要勞動者在工作期間因公受傷了,排除勞動者個人主觀故意的因素之外,雇用單位無論有無過錯都要承擔工傷賠償的責任的。)約束起來,

    實際上,在我們的日常生活里,嚴格責任賠償已經應用到了很多地方。當然除了這種責任賠償之外,如果需要對人工智能追責,其實也可以采用無過錯責任賠償和賠償方案池等方式。

    規章制度

    如果從監管的角度來看人工智能,那么你會發現,嚴格的安全標準,以及建立完善的安全認證流程也都是非常必要的。不過,如何設計一個合適的機構與流程框架,并且讓這個框架得以有效運行,依然是一個非常棘手的問題。

    人工智能領域復雜難懂,而且外部世界對于人工智能研發圈子普遍缺乏認識,這也就是人工智能專家需要盡快創建行業框架的原因所在。實際上,這里所說的框架,就是規章制度,說通俗些也就是游戲規則。因此,這意味著人工智能顧問委員會需要和政府一起,盡快立法,建設行業標準。

    我們不得不承認,人工智能行業存在巨大的潛在效益;但是標準和流程,需要不斷的創建、更新、并且執行,這樣才能達到一種持續性平衡,繼而最大限度地提高公共福利和安全;當然,也只有這樣,才不會扼殺創新,更不會出現不必要的法律負擔。

    事實上,站在國家的角度上,建立任何一個法律框架或游戲規則,都必須要足夠靈活,監管機構不僅需要考慮到本國利益,也要從全球角度出發。這意味著在某種程度上,你不僅要考慮本國的人工智能產量,以權衡進口其他各國人工智能技術,同時,你還要思考該如何任何不同國家之間的安全標準和認證,必要的時候,你是否還需要遵守未來可能出現的國際條約或公約,等等。所有這一切,遠比我們想象的要復雜得多。

    因此,當我們沿著人工智能研發的道路上前行,圍繞人工智能構建規章制度是必須要去做的事情,不要當一切都來不及時再后悔莫及。

    現在,我們已經開始對無人駕駛汽車所涉及到的問題展開討論了,那么未來人工智能還需要受到哪些法律法規的約束呢?

     

    智能界(www.xingtupian.com)是中國首家專注于報道智能科技前沿的綜合垂直媒體,秉承“引領未來智能生活”的理念,持續關注智能家居、可穿戴設備、智能醫療、機器人、3D打印、智駕等諸多科技前沿領域,提供最前沿、最時尚、最實用、最專業的硬件產品介紹、硬件評測、服務定制、最新資訊、圈子交流等服務,致力于成為最具價值的智能科技信息互動平臺。

    智能界【微信公眾號ID:znjchina】【新浪/騰訊微博:@智能界】

    e4c438278d60f46e82489f673f6f43e5.jpg

    評論列表(已有條評論)

    最新評論

    智能界

    智能界(www.xingtupian.com)

    中國智能科技聚合推薦平臺

    欧美高清视频www夜色资源