人工智能(AI)提供了巨大的機會,不僅可以提高效率和降低成本,而且還可以幫助重新考慮業(yè)務(wù)并解決關(guān)鍵問題。然而,盡管AI擁有所有的希望,但在各個經(jīng)濟體和社會中都存在同樣程度的焦慮。許多人認為先進技術(shù)將帶來注定和不可避免的深刻變化。
隨著AI變得越來越復(fù)雜,它將開始制定或協(xié)助對個人生活產(chǎn)生更大影響的決策。隨著人們適應(yīng)自動決策在社會中發(fā)揮的更大和更突出的作用,這將帶來道德挑戰(zhàn)。
因此,企業(yè)領(lǐng)導(dǎo)者和決策者需要認真對待這些擔憂,并承擔啟用和應(yīng)用“負責任的AI”的責任。
如果使用AI評估新工作的申請,如何確保申請人得到公正和公正的審查?潛在的員工如何對AI不易出錯或基于如何培訓而固有偏見充滿信心?
自動化流程可能會通過我們可能不理解或無法解釋的程序來“學習”導(dǎo)致我們可能不希望的結(jié)果的模式。算法可能會使社會中現(xiàn)有的偏見和歧視永久化,這加劇了人們對實施AI缺乏信任。
例如,弗吉尼亞大學的研究人員在廣泛使用的照片數(shù)據(jù)集上訓練了一個AI程序,后來發(fā)現(xiàn)該系統(tǒng)隨后放大了傳統(tǒng)的性別偏見。在后來的培訓中,它甚至將站在火爐旁的男人分類為女人,這是人類不會做的。
領(lǐng)導(dǎo)者需要揭示機器決策。他們的AI必須產(chǎn)生可解釋的結(jié)果,促進算法的責任感并消除偏見。這意味著領(lǐng)導(dǎo)者需要找到方法,例如審核算法和對處理后的數(shù)據(jù)進行評估,以便發(fā)現(xiàn)偏差。當系統(tǒng)犯錯誤時,必須明確責任在哪里。
建立消費者對AI和自動化系統(tǒng)的信任將需要安全性和保障性。建立財務(wù)責任是做到這一點的一種方法,但是確保人身安全和保障是關(guān)鍵。
例如,最高級的討論圍繞自動駕駛汽車展開。德國于2017年通過了一項新法律,根據(jù)駕駛員或自動駕駛汽車的控制權(quán)在駕駛員和制造商之間分配責任。在這種方法的支持下,汽車制造商表示,如果在使用“交通擁堵駕駛員”的情況下發(fā)生事故,他們將承擔責任。
在舊有保險結(jié)構(gòu)的背景下,此處新出現(xiàn)的是考慮由汽車制造商提供服務(wù)的責任。組織可以通過闡明和發(fā)展對責任的更普遍理解來幫助解決某些問題。但是,除了建立財務(wù)責任之外,安全和安保組織還需要解決一些合理的問題,包括確保通過設(shè)計將安全性應(yīng)用到自治系統(tǒng)中。
這包括確保對AI進行訓練以“舉起手”,尋求有經(jīng)驗的聰明才智的人的幫助,以幫助在極端情況下做出最終決定,而不是如果對某事有51%的把握就繼續(xù)進行。
-
人工智能
+關(guān)注
關(guān)注
1806文章
49016瀏覽量
249457 -
數(shù)據(jù)集
+關(guān)注
關(guān)注
4文章
1224瀏覽量
25446
發(fā)布評論請先 登錄
CES Asia 2025蓄勢待發(fā),聚焦低空經(jīng)濟與AI,引領(lǐng)未來產(chǎn)業(yè)新變革
最新人工智能硬件培訓AI 基礎(chǔ)入門學習課程參考2025版(大模型篇)
人工智能推理及神經(jīng)處理的未來

評論