一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

人工智能安全與法治導則

倩倩 ? 來源:lq ? 2019-08-30 15:11 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

人工智能是引領新一輪科技革命和產(chǎn)業(yè)變革的顛覆性技術,在為人類創(chuàng)造巨大福祉的同時,也會催生各類全新的安全風險。為科學預判和管控人工智能發(fā)展的安全風險,按照循序漸進、分類施策的原則,每年聚焦若干關鍵問題的治理,提出人工智能安全與法治導則。2019年度重點是算法安全、數(shù)據(jù)安全、知識產(chǎn)權、社會就業(yè)和法律責任。

一、人工智能算法安全

(一)風險挑戰(zhàn)

人工智能算法安全風險是指由于人工智能算法設計、程序運行導致的各類安全風險,主要包括技術缺陷、設計偏見和算法黑箱等風險。

1.技術缺陷。由于算法模型存在技術性缺陷,導致人工智能系統(tǒng)無法正常運行,或受到外部網(wǎng)絡攻擊和惡意樣本侵擾,產(chǎn)生與預期不符乃至危害性結果,造成人員和財產(chǎn)損失。

2.設計偏見。由于算法設計者自身存在價值偏見,導致算法設計無法實現(xiàn)設計者既定的向善目標,產(chǎn)生與預期不符以及危害性社會結果,例如算法歧視等。

3.算法黑箱。人工智能技術趨向自主學習和持續(xù)進化,不僅外部用戶難以了解算法的運行邏輯,開發(fā)者自身也越來越難以全面解釋算法的決策機制,算法的“黑箱化”將導致技術失控以及其他危害性結果。

(二)法治應對

1.開展算法安全的技術評估。通過政策和法律引導,鼓勵人工智能安全技術研發(fā),構建人工智能軟件質量評估體系,針對人工智能重點應用,開展人工智能算法安全的評估檢測。

2.推動技術倫理的算法導入。法律要強化基于人類倫理規(guī)范的算法模型設計,要求人工智能開發(fā)者設計高可解釋性的智能系統(tǒng),促進人工智能算法邏輯與人類社會價值規(guī)范的持續(xù)校準。

3.加強智能算法的透明監(jiān)督。創(chuàng)新算法監(jiān)管模式,建立多層級監(jiān)管體系,政府須依法開展人工智能的產(chǎn)品和服務監(jiān)管,人工智能企業(yè)、行業(yè)應建立相應的算法監(jiān)管體制,保持與政府監(jiān)管的協(xié)同。

二、人工智能數(shù)據(jù)安全

(一)風險挑戰(zhàn)

人工智能數(shù)據(jù)安全風險是指人工智能系統(tǒng)在數(shù)據(jù)采集、分析及流轉過程中產(chǎn)生的各類安全風險,主要包括數(shù)據(jù)隱私、數(shù)據(jù)控制和數(shù)據(jù)質量等風險。

1.數(shù)據(jù)隱私。數(shù)據(jù)隱私風險包括在采集階段自動化獲取用戶個人敏感信息,在分析階段基于用戶非敏感數(shù)據(jù)智能挖掘得出個人敏感信息并加以利用,在流轉階段未經(jīng)用戶許可將用戶數(shù)據(jù)傳遞給第三方機構或其他國家(區(qū)域)。

2.數(shù)據(jù)保護。數(shù)據(jù)保護風險是指人工智能系統(tǒng)數(shù)據(jù)資源遭遇攻擊、竊取、篡改等,導致數(shù)據(jù)發(fā)生泄露、系統(tǒng)無法使用甚至導致功能失控,數(shù)據(jù)是人工智能產(chǎn)品正常穩(wěn)定運行的基礎,且涉及用戶隱私、商業(yè)秘密乃至國家機密,數(shù)據(jù)保護挑戰(zhàn)尤為艱巨。

3.數(shù)據(jù)質量。人工智能的研發(fā)和應用對數(shù)據(jù)質量依賴度極高。數(shù)據(jù)質量不足將對人工智能系統(tǒng)帶來重大風險,主要包括數(shù)據(jù)集規(guī)模量、多樣性等不足以及數(shù)據(jù)集遭污染等原因導致的安全風險。

(二)法治應對

1.加強數(shù)據(jù)安全立法和執(zhí)法。針對個人數(shù)據(jù)和重要數(shù)據(jù)開展系統(tǒng)立法和嚴格執(zhí)法,結合人工智能重點應用場景,制定數(shù)據(jù)安全分類分級管理體系和標準,對采集和使用敏感個人數(shù)據(jù)的人工智能企業(yè)/行業(yè)須加強法律和行政監(jiān)管。

2.豐富人工智能技術發(fā)展路徑。當前人工智能主流技術路徑是基于海量數(shù)據(jù)的深度學習,未來須通過政策手段支持多樣化的人工智能技術發(fā)展,例如基于小數(shù)據(jù)的人工智能算法技術等。

3.提升人工智能數(shù)據(jù)資源管理水平。促進公共部門和私營部門數(shù)據(jù)資源共享和流通,分行業(yè)構建人工智能高質量訓練數(shù)據(jù)集,降低人工智能數(shù)據(jù)獲取成本,提高人工智能行業(yè)的數(shù)據(jù)質量。

三、人工智能知識產(chǎn)權

人工智能知識產(chǎn)權是指利用人工智能進行文學、藝術等作品創(chuàng)作而產(chǎn)生的知識產(chǎn)權問題,人工智能知識產(chǎn)權問題包括算法知識產(chǎn)權、數(shù)據(jù)知識產(chǎn)權和創(chuàng)作物知識產(chǎn)權。

(一)風險挑戰(zhàn)

1.算法知識產(chǎn)權。人工智能系統(tǒng)具有自主學習、不可解釋、自動編碼等特點,現(xiàn)有的軟件著作權靜態(tài)保護模式存在不足,侵權者可以采用輕易繞過算法的代碼表現(xiàn)形式實現(xiàn)功能模仿甚至超越,現(xiàn)有的軟件專利保護模式由于門檻較高且周期較長往往無法適應人工智能商業(yè)創(chuàng)新需要。

2.數(shù)據(jù)知識產(chǎn)權。人工智能系統(tǒng)主要通過自動化方式處理各類數(shù)據(jù)資源,著作權保護通過數(shù)據(jù)庫內容選擇或編排而體現(xiàn)其“獨創(chuàng)性”,人工智能數(shù)據(jù)資源采集和加工方式導致數(shù)據(jù)知識產(chǎn)權界定具有極大的不確定性。

3.創(chuàng)作物知識產(chǎn)權。人工智能技術發(fā)展導致對創(chuàng)作物“獨創(chuàng)性”界定日益模糊,以人類智力勞動為中心的傳統(tǒng)著作權保護模式面臨困境,引發(fā)人工智能系統(tǒng)之間、人工智能系統(tǒng)與人類創(chuàng)作之間的侵權難以認定等問題。

(二)法治應對

1.加強人工智能算法的專利保護。擴大專利法對于人工智能算法保護范圍,針對人工智能算法專利申請制定相關配套制度,利用技術手段提高人工智能算法專利審查,提高人工智能算法專利審核效率。

2.鼓勵人工智能數(shù)據(jù)開放性保護。明確人工智能的數(shù)據(jù)權屬,對企業(yè)數(shù)據(jù)資源進行知識產(chǎn)權認定,在此基礎上鼓勵企業(yè)加強人工智能數(shù)據(jù)資源的流通共享,推進人工智能數(shù)據(jù)集的建設。

3.促進人工智能作品的知識產(chǎn)權化。依據(jù)著作權法等對人工智能創(chuàng)作物“獨創(chuàng)性”進行科學辨別,對于符合條件的創(chuàng)作物應予以知識產(chǎn)權保護,對人工智能創(chuàng)作過程進行分解進而確認知識產(chǎn)權的歸屬及其權益分配。

四、人工智能社會就業(yè)問題

人工智能社會就業(yè)問題是指人工智能技術發(fā)展對現(xiàn)有社會生產(chǎn)結構及分配制度帶來的風險挑戰(zhàn)。主要包括結構性失業(yè)、收入差距加大等問題。

(一)風險挑戰(zhàn)

1.結構性失業(yè)。人工智能技術廣泛應用將導致傳統(tǒng)行業(yè)面臨重構、融合,人工智能必將取代眾多傳統(tǒng)職業(yè),不僅包括簡單重復和流程化的勞動崗位,也包括部分專業(yè)技能性知識工作崗位。

2、新興勞動力不足。人工智能技術在替代傳統(tǒng)職業(yè)的同時,也在創(chuàng)造一系列全新職業(yè)崗位,尤其是對勞動力的創(chuàng)新、創(chuàng)意、創(chuàng)業(yè)能力提出更高要求,現(xiàn)有社會勞動力構成和教育體系尚難以適應這一變革,新興職業(yè)勞動力面臨短缺。

3.收入差距加大。人工智能技術驅動全社會生產(chǎn)力發(fā)生飛躍,社會財富向少數(shù)具有人工智能技術優(yōu)勢的行業(yè)和企業(yè)積聚,對不同行業(yè)、不同企業(yè)、不同崗位的分配關系構成重大影響,勞動者的收入分配差距也將因此加大。

(二)法治應對

1.加強人工智能勞動力替代監(jiān)管。加強人工智能技術應用的就業(yè)風險評估,出臺法律法規(guī),對面臨人工智能技術替代的行業(yè)和職業(yè)進行監(jiān)管和救助,保障勞動者尤其是中低端收入階層的工作機會和權利,有序推動人工智能勞動力替代和職業(yè)轉型,防范社會大規(guī)模失業(yè)風險。

2.加快人工智能新興勞動力培養(yǎng)。面向人工智能發(fā)展趨勢,科學規(guī)劃基礎教育和職業(yè)教育體系,加大人工智能各類人才的培養(yǎng),全面支持人工智能職業(yè)轉型社會機構發(fā)展。

3.面向人工智能開展收入調節(jié)。兼顧效率與公平,在鼓勵企業(yè)通過人工智能創(chuàng)新獲取高額利潤的同時,加強人工智能時代社會收入分配調整,對遭遇人工智能沖擊的傳統(tǒng)行業(yè)勞動力進行保護和救助,提高社會二次分配的合理性與精準性。

五、人工智能產(chǎn)品法律責任問題

人工智能產(chǎn)品法律責任是指人工智能產(chǎn)品或服務在應用過程中,引發(fā)了侵權或犯罪等行為后法律責任的認定和承擔問題,主要包括:人工智能法律主體模糊、人工智能責任界定復雜。

(一)風險挑戰(zhàn)

1.人工智能產(chǎn)品法律主體多元模糊。人工智能產(chǎn)品的法律主體涉及人工智能產(chǎn)品設計者、生產(chǎn)者、運營者、使用者等多元主體,人工智能產(chǎn)品的法律主體難以確定。

2.人工智能產(chǎn)品侵權責任錯綜復雜。包括由于人工智能的控制者、使用者操作不當,造成人工智能侵權;人工智能的控制者、使用者故意利用人工智能進行侵權行為;由于黑客等外部技術侵入原因導致侵權;未來人工智能系統(tǒng)具有“自我學習”和“自主意識”導致的侵權行為等。

(二)法治應對

1.明確責任主體。弱人工智能時代,人工智能產(chǎn)品本身不具有獨立的法律主體資格,人工智能產(chǎn)品的定位是“工具”,人工智能設計者、生產(chǎn)者、運營者、使用者承擔法律主體責任。

2.科學分配人工智能侵權的法律責任。根據(jù)過錯責任原則,由產(chǎn)品設計者、生產(chǎn)者、運營者、使用者按照過錯程度分擔;由于外部技術侵入造成的侵權,則應追究外部技術侵入者的責任。對于因技術限制,而使人工智能產(chǎn)品開發(fā)之初無法預測到的危險,造成侵權后果的,應當引入保險機制等方式進行責任分擔。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 算法
    +關注

    關注

    23

    文章

    4710

    瀏覽量

    95411
  • 人工智能
    +關注

    關注

    1807

    文章

    49029

    瀏覽量

    249615
  • 網(wǎng)絡攻擊

    關注

    0

    文章

    331

    瀏覽量

    23864
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    芯盾時代引領人工智能安全治理新范式

    近日,國內首個聚焦人工智能安全與治理的研究機構——北京前瞻人工智能安全與治理研究院(以下簡稱“前瞻研究院”)在北京市經(jīng)信局、北京市網(wǎng)信辦等多個市局,和實驗室落地所在的門頭溝區(qū)政府與中關
    的頭像 發(fā)表于 05-16 09:18 ?415次閱讀

    AI人工智能隱私保護怎么樣

    在當今科技飛速發(fā)展的時代,AI人工智能已經(jīng)深入到我們生活的方方面面,從醫(yī)療診斷到交通調度,從教育輔助到娛樂互動,其影響力無處不在。然而,隨著AI人工智能的廣泛應用,其安全性問題也備受關注。那么,AI
    的頭像 發(fā)表于 03-11 09:46 ?486次閱讀
    AI<b class='flag-5'>人工智能</b>隱私保護怎么樣

    生成式人工智能模型的安全可信評測

    受到關注。但當前大模型仍然面臨可信瓶頸,無法開展大規(guī)模應用。大模型的安全可信受到高度關注,國內外已經(jīng)有多項法規(guī)與標準快速制定并落地。本文以層次化的結構,構建了生成式人工智能安全可信評測體系,分別從物理可信
    的頭像 發(fā)表于 01-22 13:55 ?1036次閱讀
    生成式<b class='flag-5'>人工智能</b>模型的<b class='flag-5'>安全</b>可信評測

    人工智能推理及神經(jīng)處理的未來

    、個性化和效率的社會需求,又進一步推動了人工智能技術的集成。此外,不斷發(fā)展的監(jiān)管體系,強調了合乎倫理道德的人工智能、數(shù)據(jù)隱私和算法透明度的重要性,進而指導人工
    的頭像 發(fā)表于 12-23 11:18 ?598次閱讀
    <b class='flag-5'>人工智能</b>推理及神經(jīng)處理的未來

    嵌入式和人工智能究竟是什么關系?

    理這些數(shù)據(jù),提高系統(tǒng)的響應速度和準確性。此外,嵌入式系統(tǒng)還可以為人工智能提供安全和隱私保護,避免數(shù)據(jù)泄露和攻擊??傊?,嵌入式系統(tǒng)和人工智能是相輔相成的,它們在許多領域都有廣闊的應用前景。 嵌入式系統(tǒng)
    發(fā)表于 11-14 16:39

    《AI for Science:人工智能驅動科學創(chuàng)新》第6章人AI與能源科學讀后感

    了電力的實時平衡和優(yōu)化,有效降低了電網(wǎng)的運行成本和故障率。 此外,書中還討論了人工智能在能源科學研究中的挑戰(zhàn)和機遇。這些挑戰(zhàn)包括數(shù)據(jù)質量、算法優(yōu)化、隱私保護等方面,而機遇體現(xiàn)在技術創(chuàng)新、產(chǎn)業(yè)升級
    發(fā)表于 10-14 09:27

    AI for Science:人工智能驅動科學創(chuàng)新》第4章-AI與生命科學讀后感

    很幸運社區(qū)給我一個閱讀此書的機會,感謝平臺。 《AI for Science:人工智能驅動科學創(chuàng)新》第4章關于AI與生命科學的部分,為我們揭示了人工智能技術在生命科學領域中的廣泛應用和深遠影響。在
    發(fā)表于 10-14 09:21

    《AI for Science:人工智能驅動科學創(chuàng)新》第一章人工智能驅動的科學創(chuàng)新學習心得

    周末收到一本新書,非常高興,也非常感謝平臺提供閱讀機會。 這是一本挺好的書,包裝精美,內容詳實,干活滿滿。 《AI for Science:人工智能驅動科學創(chuàng)新》這本書的第一章,作為整個著作的開篇
    發(fā)表于 10-14 09:12

    risc-v在人工智能圖像處理應用前景分析

    和使用該技術,無需支付專利費或使用費。這大大降低了人工智能圖像處理技術的研發(fā)成本,并吸引了大量的開發(fā)者、企業(yè)和研究機構參與其生態(tài)建設。 靈活性體現(xiàn)在RISC-V可以根據(jù)不同的應用場景進行定制和優(yōu)化,從而
    發(fā)表于 09-28 11:00

    人工智能ai 數(shù)電 模電 模擬集成電路原理 電路分析

    人工智能ai 數(shù)電 模電 模擬集成電路原理 電路分析 想問下哪些比較容易學 不過好像都是要學的
    發(fā)表于 09-26 15:24

    人工智能ai4s試讀申請

    目前人工智能在繪畫對話等大模型領域應用廣闊,ai4s也是方興未艾。但是如何有效利用ai4s工具助力科研是個需要研究的課題,本書對ai4s基本原理和原則,方法進行描訴,有利于總結經(jīng)驗,擬按照要求準備相關體會材料??茨芊裼兄谌腴T和提高ss
    發(fā)表于 09-09 15:36

    名單公布!【書籍評測活動NO.44】AI for Science:人工智能驅動科學創(chuàng)新

    ! 《AI for Science:人工智能驅動科學創(chuàng)新》 這本書便將為讀者徐徐展開AI for Science的美麗圖景,與大家一起去了解: 人工智能究竟幫科學家做了什么? 人工智能將如何改變我們所生
    發(fā)表于 09-09 13:54

    報名開啟!深圳(國際)通用人工智能大會將啟幕,國內外大咖齊聚話AI

    8月28日至30日,2024深圳(國際)通用人工智能大會暨深圳(國際)通用人工智能產(chǎn)業(yè)博覽會將在深圳國際會展中心(寶安)舉辦。大會以“魅力AI·無限未來”為主題,致力于打造全球通用人工智能領域集產(chǎn)品
    發(fā)表于 08-22 15:00

    FPGA在人工智能中的應用有哪些?

    FPGA(現(xiàn)場可編程門陣列)在人工智能領域的應用非常廣泛,主要體現(xiàn)在以下幾個方面: 一、深度學習加速 訓練和推理過程加速:FPGA可以用來加速深度學習的訓練和推理過程。由于其高并行性和低延遲特性
    發(fā)表于 07-29 17:05

    人工智能安全守護計劃啟動

    近日,中國人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟(AIIA)安全治理委員會在京成功舉辦成果發(fā)布會,會上隆重推出了“人工智能安全守護計劃”(簡稱“智安計劃”),標志著我國AI
    的頭像 發(fā)表于 07-27 16:28 ?2465次閱讀