1、人工智能的本質(zhì)
人工智能是相對于人的智能而言的。正是由于意識是一種特殊的物質(zhì)運(yùn)動形式,所以根據(jù)控制論理論,運(yùn)用功能模擬的方法,制造電腦模擬人腦的部分功能,把人的部分智能活動機(jī)械化,叫人工智能。人工智能的本質(zhì)是對人思維的信息過程的模擬,是人的智能的物化。盡管人工智能可以模擬人腦的某些活動,甚至在某些方面超過人腦的功能,但人工智能不會成為人類智能而取代人的意識。
2、人工智能與人類思維的本質(zhì)區(qū)別
人工智能是思維模擬,并非人的思維本身,決不能把“機(jī)器思維”和人腦思維等同起來,認(rèn)為它可以超過人腦思維是沒有根據(jù)的。
(1)人工智能是無意識的機(jī)械的、物理的過程。人的智能主要是生理的和心理的過程。
(2)人工智能沒有社會性。人類智慧具有社會性。
(3)人工智能沒有人類意識特有的能動性和創(chuàng)造能力。人類思維則主動提出新的問題,進(jìn)行發(fā)明創(chuàng)造。
(4)電腦可以代替甚至超過人類的部分思維能力,但它同人腦相比,局部超出,整體不及。智能機(jī)器是人類意識的物化,它的產(chǎn)生和發(fā)展,既依賴于人類科學(xué)技術(shù)的發(fā)展水平,又必須以人類意識對于自身的認(rèn)識為前提。因此,從總體上說;人工智能不能超過人類智慧的界限。關(guān)于電腦能夠思維,甚至?xí)^人的思維,電腦、機(jī)器人將來統(tǒng)治人類的觀點(diǎn)是完全沒有根據(jù)的。
他們居然雇人扮AI這是玩哪出
很多美其名曰“人工智能”的高科技,竟壓根就是真人手動操作的“智能人工”。
事情要從本月初說起。2日,《華爾街日報(bào)》在刊文曝出了一宗“谷歌郵件泄露”丑聞。為了優(yōu)化客戶服務(wù)體驗(yàn),谷歌郵箱(Gmail)竟允許上百家第三方App的開發(fā)人員瀏覽用戶的電子郵件。
涉事公司之一,eDataSource的前CTO錫德·羅德(Thede Loder)表示,讓員工“偷偷”讀用戶郵件的事,在數(shù)據(jù)服務(wù)行業(yè)中早已屢見不鮮。但是他解釋,這么做是為了改進(jìn)軟件算法,訓(xùn)練AI系統(tǒng),所以工程師們只是“偶爾看看”,也就是讓工程師“輔助”AI。
其他諸如Return Path 和Edison Software等軟件公司的說法,和羅德如出一轍。
事情在第二天便得到了谷歌的承認(rèn)。但除了是否侵犯用戶隱私外,字里行間顯然還隱藏著另一個重要的問題:
為什么讀郵件的都是人工?
這還沒完。英國《衛(wèi)報(bào)》在6日繼續(xù)“吐槽”稱,讓人來“輔助”AI已經(jīng)不錯了,以往還有很多更過分的“黑科技”。
2008年,英國一個自稱可以“自動將語音留言轉(zhuǎn)為文本短信”的SpinVox軟件,被人指控在南非、菲律賓等地設(shè)立了海外呼叫中心。
2016年,彭博社曝光美國創(chuàng)業(yè)公司X.ai(AI啊這公司名字就叫AI)推出的“人工智能私人助理Amy”,“后臺”居然是一支不眠不休的人工團(tuán)隊(duì)。Amy號稱可以幫用戶完成會議安排和發(fā)送電子郵件等簡單任務(wù),但受訪員工稱,自己需要每天工作12 小時,假扮虛擬助理完成一系列單調(diào)無聊到“令人麻木”的工作。
去年,推出了企業(yè)費(fèi)用管理App的跨國公司Expensify承認(rèn),他們一直使用人工來處理他們的主打產(chǎn)品“智能掃描技術(shù)”(SmartScan)的部分收據(jù)轉(zhuǎn)錄工作。他們只要將用戶上傳的收據(jù)掃描,把照片發(fā)布到亞馬遜的眾包平臺上,那里的工作人員便會將其手動抄錄下來。而且,這些人的薪水便宜得很。
“不知道Expensify的用戶明不明白真相呢?我現(xiàn)在正在看著某人的Uber發(fā)票,上面寫著他的全名,以及出發(fā)地、目的地的地址”,接到活兒的羅謝爾·拉普朗特(Rochelle LaPlante)說道,他本人對這種“滿口謊言”的公司很是反感,現(xiàn)在根本不想用他們的產(chǎn)品。他透露,其實(shí)很多同行都有不同程度的抵觸情緒,“我們感覺自己被丟到幕后,勞動成果還被用來欺騙其他消費(fèi)者。”
裝成翹楚好賺錢
隨后,《衛(wèi)報(bào)》分析了這些科技企業(yè)對“偽人工智能”趨之若鶩的原因。
首先便是裝成行業(yè)佼佼者,吸引關(guān)注和投資,“這是他們不會告訴投資者和用戶的秘密”。這其中又分兩種情況。一種是讓人類來協(xié)助已有的人工智能,比如牽涉到谷歌郵箱泄密的那些第三方App,再比如,美國有家叫Scale API的公司,雇了一大堆人幫自己的自動駕駛汽車校準(zhǔn)傳感器。
再有便是對外假稱是AI技術(shù),然后偷偷用人工代替,直到真的開發(fā)出這個AI之前,能混一天算一天。報(bào)道稱,真人雖然速度又慢,又不能批量處理任務(wù),但畢竟便宜啊。
有趣的是,早在2016年,一家交互設(shè)計(jì)工具網(wǎng)站Readme的老板格里高利·科貝格(Gregory Koberger)便在推特上用玩笑的口吻曝光了這個黑幕。
13日,《華爾街日報(bào)》再次評論了“偽人工智能”現(xiàn)象,稱其為“機(jī)器學(xué)習(xí)”熱潮和“零工經(jīng)濟(jì)”相結(jié)合的產(chǎn)物。
真人扮AI不道德?AI扮真人更不道德
此外,《衛(wèi)報(bào)》認(rèn)為還有一個不那么“功利”的原因。心理學(xué)家發(fā)現(xiàn),當(dāng)用戶以為自己面對的是機(jī)器人時,會更容易放下戒備。一旦涉及敏感話題,這種情況就更加明顯。
再說回谷歌郵件事件,如果大家聽說郵件只是被機(jī)器人偷看了,抵觸情緒定然會比得知真相后小得多。
類似情形還存在于醫(yī)療問診中、來自南加大的研究團(tuán)隊(duì)用他們開發(fā)的虛擬心理治療師艾莉(Ellie)做了一番測試。他們發(fā)現(xiàn),患有創(chuàng)傷后應(yīng)激障礙的退伍軍人只要發(fā)現(xiàn)艾莉是個AI,就老是會發(fā)病。
不過,這也引發(fā)了其他專家的擔(dān)憂?!斑@設(shè)計(jì)很綠野仙蹤呢”,心理學(xué)家、心理健康聊天機(jī)器人Woebot的創(chuàng)始人艾莉森·達(dá)西(Alison Darcy)道,“作為心理學(xué)家,我們需要遵循道德準(zhǔn)則,不欺騙別人顯然應(yīng)該是準(zhǔn)則之一?!?/p>
確實(shí)掌握AI技術(shù)的谷歌,也在早前意識到了這個倫理難題。而他們的解決方案是:
讓AI假裝自己是人類
谷歌在5月初宣布,“谷歌助手”(Google Assistant)的新功能Google Duplex會在打電話時加入“嗯”、“呃”之類擬人的象聲詞。但這一改動迅速遭到強(qiáng)烈反對,用戶紛紛表示“這豈不騙得更厲害了”。
達(dá)西也對當(dāng)時的設(shè)計(jì)很不滿,“萬一AI能模仿名人或政客的聲音,打出真假難辨的電話,那還得了?”
于是,谷歌隨后又做了改動,讓Google Duplex在對話一開始就自報(bào)機(jī)器人身份,加強(qiáng)AI技術(shù)“透明度”。
-
機(jī)器人
+關(guān)注
關(guān)注
213文章
29748瀏覽量
212987 -
AI
+關(guān)注
關(guān)注
88文章
35168瀏覽量
280160 -
人工智能
+關(guān)注
關(guān)注
1807文章
49029瀏覽量
249673
發(fā)布評論請先 登錄
評論