福建11选五玩法说明

 首頁 >> 圖書情報學
積極做好人工智能技術安全風險評估
2019年12月03日 16:56 來源:中國社會科學網-中國社會科學報 作者:李凱 字號

內容摘要:

關鍵詞:

作者簡介:

  隨著新科技革命的縱深發展、智能算法的優化升級,人工智能技術可能帶來新的挑戰與治理困境。因此,積極做好人工智能的政策引導與合理規制,推進智能技術安全風險評估預警研究,對實現人工智能健康持續發展顯得尤為重要。 

    人工智能技術應用存在風險 

    人工智能技術對于智慧社會建設意義非凡。人工智能技術的繁榮,也離不開人類社會的場景應用。然而我們在大力推進人工智能與實際生活接軌時,必須高度警惕人工智能在技術應用、法律道德以及社會關系等領域的潛在風險。 

    第一,人工智能技術的場景應用風險。目前,人工智能技術應用涉及智慧醫療、智慧交通、智慧司法及智能教育等方方面面。在智慧交通方面,無人駕駛技術不僅提升了駕駛員的安全性,還為其節省出更多的自由時間,經算法分配可緩解交通擁堵狀態。但無人駕駛網絡系統一旦受到黑客或者市場競爭對手的惡意攻擊,極有可能使人類生命財產安全受到巨大威脅。在智慧醫療方面,人工智能技術在諸如醫療輔助機器、智能藥物研發、智能醫學影響、個人智能健康管理等智能診療方面發揮巨大作用。然而當前人工智能還處在初級階段,系統本身存在漏洞,若大面積臨床應用易引發醫療事故;智慧醫療一旦發生醫患糾紛,就會存在責任主體無法明確的問題。在智慧司法領域,人工智能技術已得到初步推廣,最高人民法院與最高人民檢察院分別提出“智慧法院”和“智慧檢務”?!斗ㄖ衛鍍な欏ぶ泄ㄔ盒畔⒒⒄貢ǜ媯?019)》也指出,智慧法院在“信息化助理司法為民”“信息化輔助審判執行和司法管理”和“信息化服務國家社會”三大方面全面推進。但是人工智能技術并不能完全取代司法工作者,它消解司法的本質和法官的主體性。另外,人工智能技術的算法存在“黑箱”缺乏有效監督,無法保證審判結果的公正、客觀,難以使人信服,甚至出現人工智能技術下的冤假錯案。 

    第二,人工智能技術背后的法律道德風險?!翱蒲Ъ際醣舊硎侵行緣?,無所謂善惡,科技對人類及環境的負責作用完全是人類自身的責任?!比斯ぶ悄薌際踉詵傻賴路矯嬙媼俜縵?。首先,人工智能領域的立法相對滯后。技術壁壘、現實不對稱以及法律的權威性等原因,造成了人工智能領域的立法滯后。在民法、知識產權法、交通法以及刑法等諸多領域,不僅缺乏有效的法律供給,而且相關技術還與現行法律秩序相沖突。其次,個人隱私和信息安全受到威脅。人工智能技術的應用與發展,離不開對數據的采集與利用,數據不斷更新與擴張則會引發信息泄露、侵犯隱私的風險。最后,人工智能法律倫理方面存在困境。人工智能技術經過算法的不斷升級換代,或許可完全繞過人腦固有的思維方式,形成“新智能思維”強制模擬人類思維,從而使人類陷入思維無法觸及的地帶,達到新興技術生命周期的“峽谷”。 

    第三,由人工智能所引發的社會關系風險。在人工智能時代,我們需要更加重視兩對關系,即人與人關系、人與機器的關系。在人與人關系方面,隨著人工智能與實業相結合,部分職業被機器所取代,傳統行業面臨重組,從而造成結構性失業。在人與機器關系方面,學界一直存在爭論。隨著深度學習為智能系統不斷優化升級,智能機器將會在某些領域達到甚至超越人類的水平,人工智能一旦在自主意識和情感領域取得新進展,那么人與機器之間的關系會變得復雜。此外,對于絕大多數的用戶而言,他們不會試圖研究甚至難以了解算法的內在邏輯,同時維護人員也很難全面掌握、解釋智能技術在深入學習后的選擇機制,從而形成算法的“黑箱”,嚴重情況下會演進為算法歧視。 

    人工智能安全風險評估優化路徑 

    為確保人工智能技術平穩安全落地,我們不能被動地在發生危險后緊急處理相關問題,而要在第一時間掌握技術的最新動態,積極做好人工智能安全風險評估和預警工作。 

    第一,完善人工智能安全應用的法律覆蓋和兜底。當前,我國在人工智能技術安全運用領域還存在大量法律空白。對此,立法者應制定相關法規,為智能技術的應用安全提供法律保障,防控人工智能技術帶來的潛在風險。一方面,立法者要全面審視現有法律體系,并使其不斷適應社會需求,同時注重立法加強用戶信息和隱私的?;?、個人數據合法使用、人工算法的普適公平,以及智能技術失效后的救濟管理,明確人工智能法律主體以及相關權利、義務和責任,構建實現新技術的法律基礎。另一方面,設立人工智能發展規劃和前沿技術領域的負面清單,從法律底線構建“安全防火墻”。在國家層面立法實現對人工智能的算法設計、產品開發、數據采集和產品應用的全流程規制,在可能引發人工智能不可預知性和不確定性的技術領域,立法設立紅區或研發限制規范,推進人工智能技術健康發展與應用。 

    第二,健全人工智能安全等級和風險預估機制。由于人工智能的發展存在很多的不確定性,亟須加強人工智能潛在風險的評估,促使人工智能安全可控發展。首先,政府應聯合相關高校、智庫和科技公司等對人工智能技術的應用進行安全等級評估,不同安全等級運用不同層次的智能安防技術,確保人工智能技術應用的安全性、有序性。其次,針對人工智能技術應用進行風險預估,預防人工智能在場景應用中存在的潛在風險,防止技術手段在實際運用中可能出現的故障、失效、被入侵等隱患。如通過人工智能技術建立對抗性學習算法研究,利用“技術制約技術”的理念,優化智能技術開發架構,降低人工智能帶來的隱患。最后,政府安全部門應聯合相關執法機構,完善對人工智能技術應用主體的監控機制,建立倫理與風險審查機制,降低人工智能技術受到人為因素影響的概率。 

    第三,做好人工智能風險防控領域前瞻性研究。面對智能技術的安全威脅,人們應采取積極應對的態度,秉持“早發現、早治療、早升級”的理念促進人工智能的良序發展。一是成立具有國家戰略高度的人工智能風險防控系統與實體研究機構,切實加強各類人工智能安全應用平臺建設和人工智能學科專業建設與人才培養;形成以政府為主導、企業為主體、市場為導向的產學研相結合的模式,鼓勵開發相關人工智能技術,拓寬人工智能技術的安全應用領域。二是貫徹人類命運共同體理念,積極開展多邊國際智能安全技術合作。中國應積極參與人工智能全球治理,主動搭建人工智能倫理規范、制度建設和國際規制等全球合作平臺,在智能技術安全風險管控、國家安全治理等重大國際議題上,貢獻中國智慧與力量,共同應對全球性挑戰。 

    總而言之,我們需要從實際出發,因地制宜、因時制宜,從頂層設計層面加強對人工智能新技術融入經濟社會的規劃和引導,準確把握技術和產業發展趨勢,不斷規范不同領域人工智能安全應用,進而避免盲目追求人工智能技術的應用,而忽視了智能技術造福于人的本質目標。 

    (作者單位:華東政法大學中國法治戰略研究中心) 

作者簡介

姓名:李凱 工作單位:

轉載請注明來源:中國社會科學網 (責編:閆琪)
W020180116412817190956.jpg
用戶昵稱:  (您填寫的昵稱將出現在評論列表中)  匿名
 驗證碼 
所有評論僅代表網友意見
最新發表的評論0條,總共0 查看全部評論

QQ圖片20180105134100.jpg
jrtt.jpg
wxgzh.jpg
777.jpg
內文頁廣告3(手機版).jpg
中國社會科學院概況|中國社會科學雜志社簡介|關于我們|法律顧問|廣告服務|網站聲明|福建11选五玩法说明