導讀:最近有兩個故事引起了我的注意,這表明我們可能需要調整我們認為的道德行為以正確利用人工智能。
本文作者:Enderle 集團總裁和首席分析師
人工智能有兩個明顯的目標,就目前而言,這兩個目標并不相互排斥,但其中只有一個可以長期造福人類。這些目標要么是加強人們的工作,要么是取代人。最近有兩個故事引起了我的注意,這表明我們可能需要調整我們認為的道德行為以正確利用人工智能。
第一個故事是關于一位藝術家使用 AI 創(chuàng)作藝術作品不公平地贏得了藝術比賽,而另一個故事是使用 AI 讓學生更快地寫出更好的論文。后者目前與作弊有關。
二者都像我過去聽到的關于如何在學校禁止使用計算器和個人電腦的爭論,因為它們避免了學習乘法表或在圖書館而不是在維基百科上進行初級研究的需要,即使技能隨著時間的推移,使用這兩種方法對作為員工的學生來說比舊的做事方式更有價值。
簡而言之,我們最終必須弄清楚的是,使用人工智能更快地創(chuàng)造出更好的產(chǎn)品是否被認為是作弊,還是只是謹慎行事?
大的人工智能倫理問題
關于人工智能,我們沒有討論的問題是,創(chuàng)造取代人類的人工智能可能要比創(chuàng)造增強人類的人工智能容易得多。第一種方法只需要專注于復制這個人所做的事情,創(chuàng)建一個他們的數(shù)字孿生兄弟,現(xiàn)在已經(jīng)有公司在做這個了。更簡單的是,你不需要與人類接觸,而人類缺乏共同的語言、共同的技能、共同的興趣,甚至共同的體型。我們甚至還沒有培訓人們如何與會話人工智能打交道。如前所述,我們更傾向于懲罰那些有效使用工具的人,而不是獎勵他們的技能。
這意味著AI最有效的使用路徑不是增強路徑,而是替代路徑,因為AI在其參數(shù)范圍內單獨運行并不令人反感,但AI被用于顯著增強用戶,特別是在競爭中,會被視為作弊。這種對替換的關注在自動駕駛汽車上尤為明顯。
對于自動駕駛汽車,目前默認的技術是增強駕駛員的能力,豐田稱之為“守護天使”(Guardian Angel)。但在測試中,英特爾發(fā)現(xiàn),在自動駕駛汽車中為人類駕駛員提供控制會增加駕駛員的壓力,因為他們不知道自己是否會突然被要求駕駛汽車。如果汽車不提供人類駕駛選項,未經(jīng)訓練的駕駛員會感到更舒服,這表明,從長遠來看,不允許或增強人類駕駛員的自動駕駛汽車將比那些提供人類駕駛員的自動駕駛汽車更受歡迎和成功。
實際上,盡管該行業(yè)和IBM等公司正在積極推廣AI作為人類增強工具,但市場對待這項技術的方式(因為它不專注于培訓更好的人類AI界面和舒適度)正在成為AI作為人類替代品的強制功能,隨著勞動力池隨后崩潰,這將成為問題。
如果人類得到人工智能的幫助,這重要嗎?
對于藝術家或作家來說,與比他們更有能力的人合作創(chuàng)作一件藝術品、一篇論文甚至一本書是很正常的。而且,有人在得到影子寫手許可的情況下,利用影子寫手的名義來創(chuàng)作一本書,這種情況也并不少見。
如果使用AI而不是老師/導師/合作者/合作伙伴/代筆,情況會更糟嗎?或者,由于人工智能可能比另一個人更好地獨立反映用戶的意愿,在連接工作和用戶方面,使用技術是否會更好,并且由于用戶沒有將另一個人的工作作為自己的工作而減少道德妥協(xié)?
總結:重新思考人工智能倫理
企業(yè)只是想要高質量的工作,如果他們能從機器 (AI) 中獲得比人更高的質量,他們就會做出并已經(jīng)做出不那么困難的選擇。想想過去幾十年制造業(yè)和倉庫自動化的過程就知道了。
我們需要培訓人們如何使用人工智能,如何接受最有效利用人工智能資源的工作產(chǎn)品,同時確保我們能夠防止知識產(chǎn)權盜竊和剽竊。如果我們不這樣做,很可能隨著時間的推移,人工智能的發(fā)展趨勢將繼續(xù)從關注人類的輔助轉向人類的替代,這將不利于行業(yè)或越來越多的職業(yè),可以更好地利用人工智能。