Global Sources
電子工程專輯
 
電子工程專輯 > 處理器/DSP
 
 
處理器/DSP  

科學家:機器人需要懂道德!

上網時間: 2014年07月22日     打印版  Bookmark and Share  字型大小:  

關鍵字:機器人  道德  人工智慧  工程師  責任 

打造具備道德自主能力人工智慧裝置的人該負什麼樣的責任?我們該如何透過有責任感的方式,為機器人添加道德能力?研究人員將為這些連結機器人與人工智慧工程、巨量資料分析以及道德哲學的迷人題目找出答案;它們正為工程師們帶來挑戰,也不應該被忽視。

來自美國塔夫斯大學(Tufts University)、布朗大學(Brown University)、壬色列理工學院(Rensselaer Polytechnic Institute)與世界其他學術機構的研究人員們,正與美國海軍共同探索以上相關問題,目標是開發出能成功植入機器人的道德演算法。

為瞭解更多針對機器人應用的嵌入式道德演算法開發現況,EETimes美國版編輯專訪了塔夫斯大學電腦科學教授Matthias Scheutz,他也是該校的人類-機器人互動實驗室(Human-Robot Interaction Laboratory,HRI Lab)的主持人。

設計具備道德能力機器人所遭遇的挑戰有哪些?Scheutz表示:「相關挑戰有很多,例如理解道德判斷情境,可解決道德衝突的恰當道德推理能力,以及判斷適合的行動路線等,還要將所有的演算法以一種讓它們能堅定地即時運作之方式,佈建在機器人架構中。」

Scheutz也表示,它們目前正在研究推理演算法的不同設計選項,例如擴增道義邏輯(augmented deontic logic,形成義務與許可概念的邏輯),以及偵測出道德判斷情境的方式、主要是根據語言。

機器人Nao乖乖地安靜坐在一邊,等待塔夫斯大學教授Matthias Scheutz開始上機器人程式編寫課程
機器人Nao乖乖地安靜坐在一邊,等待塔夫斯大學教授Matthias Scheutz開始上機器人程式編寫課程
(來源:Alonso Nichols,Tufts University)

在一篇題為《讓自主代理體系架構更具功能性的需求(The Need for More Competency in Autonomous Agents Architectures)》之論文(參考原文)中,Scheutz以醫療與戰場做為自主式機器人的兩個應用案例,討論機器人設計師與工程師所面臨的部分挑戰;包括機器人將做出什麼決定?以及不當決定導致原本可避免的傷害發生時,誰該負起責任?

Scheutz表示,身為機器人設計者:「我們負責開發所有支援道德推理之演算法的控制架構,但我們不會對機器人將被賦予的道德原則做出任何承諾,那應該是機器人佈署者的任務──他們負責定義道德準則、規範等等。」

因此Scheutz認為,法律專家應該要提早定義出對機器人行為應負的責任,這是一個關鍵問題,特別是因為具備學習能力的機器人,也會在執行任務的過程中吸收新的知識。

塔夫斯大學教授Matthias Scheutz與他在HRI實驗室的機器人夥伴Cindy
塔夫斯大學教授Matthias Scheutz與他在HRI實驗室的機器人夥伴Cindy
(來源:Kelvin Ma,Tufts University)

以下的視訊檔案是Scheutz的實驗室以Cindy機器人所做的運輸實驗:

Cindy機器人的運輸實驗
Cindy機器人的運輸實驗 (點選此連結另開YouTube視訊)

如何賦予機器人道德能力?

要賦予機器人道德能力,就是讓機器人在一個道德判斷情境中,模仿人類的決策過程;而首先,機器人就是能意識到一個道德判斷情境,接著依循所佈建的推理策略──包括道德原則、基準與價值等。這呼應了美國達特茅斯學院(Dartmouth College)教授James H. Moor提出的第三種道德主體(ethical agent)」──也就是明確(explicit)的道德主體。

根據Moor的說法,明確的道德主體能在多樣化的情境之下判別並處理道德資訊,並做出應該要做的敏感判斷;特別是它們能在道德兩難的情境下,在不同道德原則相互衝突時,做出「合理的決定」。

Scheutz指出,現今的機器人與人工智慧科技進展,已經能製作出具備自我決策能力的自主機器人,不過大多數這類機器人的功能仍然很簡單,其自主能力也有限;因此它們有可能因為缺乏從道德角度來考量的決策演算法,而成為具傷害性的機器。

「如果我們不賦予機器人偵測並適當處理道德判斷情境的能力、而且是透過人類可接受的方式,我們可能會增加人類受到不必要傷害與苦難的風險;」Scheutz表示:「自主性機器人可能會做出我們認為在道德上有錯誤的決定──例如被授權不提供病患止痛藥。」

在論文中,Scheutz表示機器人開發者能採取一些行動,減輕佈署在人類社會中的機器人面臨道德判斷情境可能造成的問題:「第一,機器人設計者可以透過機器人的設計與編程,降低遭遇道德判斷情境中的潛在性,例如當機器人不會回報社交關係時,就不利於社交連結(social bonding),這將會減少人們與機器人建立單向情感連結的情況。」

相較於有些機器人的行為會表現情感,或是擬人化的設計,可能會暗示人們它有能力特定類型的關係,但實際上並不會。身為人類,對機器人可能在道德判斷情境或是道德兩難情境下可能做出的抉擇做出批判,可能會是挑戰。

考量到我們身為人類,在評估我們自己的道德社交行為時,會一直表現出許多前後不一致的行為,無疑人類需要為打造具備道德自主性的人工智慧負責。

運輸機器人與無人駕駛機實驗
運輸機器人與無人駕駛機實驗(點選此連結另開YouTube視訊)

Scheutz表示,實際上人類面對道德判斷情境時也會有不同的看法,但這不一定會成為替機器人佈署道德推理功能的限制因素:「未受過正規訓練的人類通常不擅於正確的邏輯推理,而且有可能會犯錯──例如所得結論並未根據已知資訊的邏輯──特別是在複雜的道德情境下。至於機器人,我們能確保它永遠或只會依循邏輯推理,不會執行未受允許的動作。」

Scheutz期望,未來每一個佈署在人類社會中的自主性機器人,包括輔助機器人、娛樂機器人、軍事機器人等等,都是「懂道德的機器人」

編譯:Judith Cheng

(參考原文: Engineering Ethics Into A Robot,by Susan Fourtane)





投票數:   加入我的最愛
我來評論 - 科學家:機器人需要懂道德!
評論:  
*  您還能輸入[0]個字
*驗證碼:
 
論壇熱門主題 熱門下載
 •   將邁入40歲的你...存款多少了  •  深入電容觸控技術就從這個問題開始
 •  我有一個數位電源的專利...  •  磷酸鋰鐵電池一問
 •   關於設備商公司的工程師(廠商)薪資前景  •  計算諧振轉換器的同步整流MOSFET功耗損失
 •   Touch sensor & MEMS controller  •  針對智慧電表PLC通訊應用的線路驅動器
 •   下週 深圳 llC 2012 關於PCB免費工具的研討會  •  邏輯閘的應用


EE人生人氣排行
 
返回頁首