十年網(wǎng)站開發(fā)經(jīng)驗 + 多家企業(yè)客戶 + 靠譜的建站團隊
量身定制 + 運營維護+專業(yè)推廣+無憂售后,網(wǎng)站問題一站解決
目前程序員在開發(fā)和自動駕駛相關(guān)的 AI 程序時,面臨著一個相當大的問題,或者說是道德困境。原因是,到現(xiàn)在為止,似乎都沒有工程師考慮過,人們可能會用自動駕駛車輛做壞事的情況。
這種道德困境大家都很熟悉:假設路上有一輛自動駕駛汽車,如果它繼續(xù)往前開,就會撞死前車上的 5 個人;如果它緊急打方向避讓,就會沖上人行道撞死 1 個行人。
對于這種情況,目前大多數(shù)關(guān)于 AI 倫理的討論,都集中在自動駕駛汽車 AI 系統(tǒng)的取向應該是自私的(保護車輛及其貨物)還是功利(選擇傷害最少的人的行為)的。而在現(xiàn)實中,這 2 種倫理方法都會引起自身的問題。
總體而言,業(yè)界目前對 AI 所要面臨的情景設想是非常簡化的,道德判斷遠比此更復雜。比如說,如果給 AI 設定程序,讓它撞 1 個行人,保護前車的 5 個人,那么,如果前車上的是 5 個恐怖分子呢?如果他們是故意要利用 AI 程序殺死那個行人呢?
對此,北卡羅來納州立大學科學、技術(shù)與社會(STS)項目助理教授維爾科 · 杜布爾耶維奇(Veljko Dubljevi )提供了另一種思路。他提出了一種稱為代理人行為后果(ADC)的模型,作為 AI 道德判斷的框架。
ADC 模型基于 3 個變量來判斷決策的道德性:首先,程序的意圖是好是壞?第二,行為本身是好是壞?最后,結(jié)果或后果是好是壞?這賦予了 AI 很強的靈活性,比如一輛車闖紅燈時,還將是否為了避開了一輛超速的救護車以及是否成功避開。
這個模型更貼近普通人遇到的情況,在生活中,大多數(shù)人的道德判斷通常也是具有相當靈活性。盡管大多數(shù)人有穩(wěn)定的道德原則,但在具體問題上又是靈活的,比如為了好事說謊常常被視作好事。
在此之前,也有研究人員提出了另外的思路。德國達姆施塔特理工大學研究人員曾提出 " 道德地圖 " 的概念。
該校席格登 · 圖蘭(Cigdem Turan)博士表示:" 如果 2 個詞經(jīng)常一起出現(xiàn),就相當于在地圖上緊密連接。這樣," 殺人 " 和 " 謀殺 " 相當于 2 個相鄰的城市," 愛 " 則是一個遙遠的城市。當我們問起 " 我應該殺人嗎 ?" 時,期望結(jié)果是‘不’比‘是’離問題更接近。這樣,我們可以問任何問題,并用這些距離來計算是非程度。"
通過這種窮舉所有情況的方法,就能給機器設定一張和人的道德體系類似的到的地圖。
這種窮舉不僅包括研究人員給出的情景,還包括從大數(shù)據(jù)中學習。通過學習,試驗 AI 算法可以區(qū)分不同語境并加以道德判斷。例如,殺人是錯的,但消磨時間是可以的。機器做到了這一點,不是簡單地重復它找到的文本,而是從人類在文本中使用語言的方式中提取關(guān)系,并組成一張地圖。
編譯 / 前瞻經(jīng)濟學人 APP 資訊組