人工智能(AI)滲透到我們的日常生活中,決定諸如誰獲得福利,誰入圍工作,甚至發(fā)現農場植物中的疾病之類的事情。但是,人工智能也帶來了無數挑戰(zhàn),尤其是對于設計人工智能系統(tǒng)的企業(yè)而言。
在過去的30多年中,人工智能已經離開實驗室,出現在我們的日常生活中?!斑@是AI的可笑之處,它正在觸動人們的生活,但他們甚至可能沒有意識到?!毕つ嵛髂洗髮W悉尼分校計算機科學與工程學院的人工智能科學教授Toby Walsh說,他領導著Data61算法決策理論小組。
沃爾什(Walsh)教授最近被提名為14位享有盛名的澳大利亞獲獎者之一,并獲得澳大利亞研究委員會(Australian Research Council)授予的310萬美元獎金,以繼續(xù)他的研究,以了解如何構建人類可以信賴的AI系統(tǒng)。
人工智能今天面臨的挑戰(zhàn)
沃爾什教授解釋說,每次您在Facebook或Twitter提要上閱讀故事時,都是AI會向您推薦這些故事,而您在Netflix上觀看的所有電影中的三分之一也來自算法。他警告說,但是即使這種聽起來無害的活動也可以轉移到機器上,但也會對社會產生腐蝕作用。
確實,他的研究發(fā)現了不良影響的范圍之廣。他說:“它們會產生過濾泡,最終導致虛假新聞或選舉被篡改的可能性?!?/p>
雖然AI可以通過消除瑣碎的工作來使社會更公平,更公正地生活,但它也可用于損害社會的凝聚力。實際上,沃爾什教授說,他對當今更多的世俗誤用AI感到擔憂,而不是對未來超級智能AI的擔憂。他解釋說:“我更加擔心自動化在社會中加劇的不平等現象?!?/p>
算法可能像人類一樣有偏見,這是當今AI面臨的最大挑戰(zhàn)之一。沃爾什教授繼續(xù)說:“更糟糕的是,它們不以任何法律方式負責,也不透明。”
因此,Walsh教授在研究中著眼于如何構建AI并驗證AI系統(tǒng)做出的公平決策,這些決策可以被追蹤,解釋和審計,并且尊重人們的隱私。
但是,那些已經在使用AI的公司,即“五大”(Facebook,亞馬遜,蘋果,微軟和Google)呢?如此強大的科技巨頭如何設計人們可以信賴的AI流程?
Google根據七項原則設計AI
2018年3月,谷歌宣布與五角大樓在``Project Maven‘’上合作,通過AI幫助分析和解釋無人機視頻。此后,這家科技巨頭發(fā)布了七項AI原則,構成了道德憲章,指導Google在AI的所有開發(fā)和使用,并禁止在武器和侵犯人權行為中使用AI。
但有人說,自2018年以來的許多考慮并沒有消失。人權觀察組織(Human Rights Watch)最近發(fā)表了一份報告,呼吁禁止使用“完全自主武器”。確實,將AI永久性使用的潛力是巨大的,但是這種強大的技術提出了同樣強烈的疑問,即該技術對社會的使用和影響,承認Google澳大利亞工程總監(jiān)Daniel Nadasi。
他警告開發(fā)AI的任何人都應該堅持最高的道德標準,并仔細考慮如何使用這項技術來造福整個社會。確實,在過去的幾年中,Google一直在使用AI來完成許多任務,例如識別圖像中的項目,自動翻譯以及為您的電子郵件提出明智的建議。
-
Google
+關注
關注
5文章
1789瀏覽量
59044 -
人工智能
+關注
關注
1806文章
49028瀏覽量
249529
發(fā)布評論請先 登錄
評論