2009-07-07

超越艾西莫夫定律:與機器人安全地共存

Living Safely with Robots, Beyond Asimov's Laws
http://www.physorg.com/news164887377.html

By Lisa Zyga, June 22nd, 2009

(PhysOrg.com) -- "在 1981 年,一位 37 歲的工廠工人名叫浦田健司(Kenji Urada)進入川崎製造工廠一處受到限制的安全區域,對一部機器人進行某些維護。慌亂中,他無法完全將它關閉。這部機器人強大的液壓手臂將這位工程師推入某些毗鄰的機器,也因此使得浦田成為史上第一個死於機器人手下的人。"

在這樣的情節中,如同一篇最近在 International Journal of Social Robotics 發表的研究所述,絕大多數的人們並不會將這樣的意外視為機器人的錯誤。但是當機器人開始從工業環境普及到真實世界時,機器人存在下的人類安全性已然成為一項重要的社會與技術議題。目前,一些國家如日本、南韓正為「人類--機器人共存社會(human-robot coexistence society)」作準備,經預測,那會在 2030 年之前興起;南韓預測,在 2020 年時,該國每個家庭中都將有部機器人。不同於工業機器人,那在結構化設定中辛苦完成重複的任務,這些「次世代機器人」將具有相對的自主性(autonomy),在模糊的(ambiguous)、以人類為中心的環境中工作 -- 例如護理之家(nursing homes)與辦公室。在這一大群機器人立即上工之前,管理者正試圖想出如何對付安全性與法律上的議題。當某一實體,那很顯然並非人類,不過超越了機器,開始滲透到我們每日生活中時,預期會發生這些議題。

在他們的研究中,作者翁岳暄(Yueh-Hsuan Weng),在日本京都市吉田校區的一位 Kyoto Consortium for Japanese Studies (KCJS) 訪問學生,以及陳建勳(Chien-Hsun Chen)、孫春在(Chuen-Tsai Sun),二位都是台灣新竹國立交通大學(NCTU)的人,一起為司法體系(legal system)提出一種框架,那聚焦在次世代機器人安全性議題上。他們的目標是透過「安全性智慧(safety intelligence)」協助確保更安全的機器人設計,並在意外必然會發生的情況下,提供一種方法來處理意外。這些作者們也分析了艾西莫夫(Isaac Asimov)的機器人三定律(Three Laws of Robotics),但(如同今日絕大多數機器人學專家),在確保機器人安全地進行它們的工作上,他們懷疑這些定律能提供一種充分的基礎。

在這個被提議的架構中,一項指導方針是將機器人納入「第三存在(third existence)」實體的範疇中,因為次世代機器人被認為既不是活的/生物的(第一存在),也不是非活的/非生物的(第二存在)。一個第三存在實體將在外貌與行為上類似活著的東西,但沒有自覺(self-aware)。雖然機器人目前在法律上被列為第二存在(人類的資產),不過作者們相信,就責任分配(responsibility distribution)而論,一種第三存在的分類方法將能簡化意外處理。

在一項涉及「使機器人與人類社會成為一體」的重要挑戰上,論及了「開放組織風險(open texture risk)」 -- 這種風險來自於非結構化環境中意料之外的互動。開放組織風險的例子之一是,讓機器人理解自然(人類)語言的細微差別(nuances)。雖然自然語言中的每一個字都有一個核心定義,不過語言的開放組織特質,使得詮釋因外在因素而異。身為其安全性智慧概念的一部份,作者們提出一種「法定機器語言(legal machine language)」,在其中,道德(ethics)透過編碼(codes,譯註:亦作法規,後面視情況交替使用)嵌入至機器人中,那被設計來解決與開放組織風險相關的議題 -- 這是某件艾西莫夫的三定律無法明確處理的事。

"在過去 2000 年的司法史中,我們人類已使用人類法定語言來溝通法律上的事務," 翁岳暄表示。"這些規則與法規是由自然語言(例如,英文、中文、日文、法文等等)所構成。當艾西莫夫發明機器人三定律的概念時,將人類法定語言直接應用到他的科幻情節中,對他而言輕而易舉。"

如同陳建勳的補充,艾西莫夫的三定律原先是為了文學目的而創造,不過這些定律中的模稜兩可卻使得機器人的開發者、機器人的擁有者以及政府間的責任不清不礎。

"透過二種基本概念的結合:「法規就是法律(Code is Law,編碼就是定律)」以及「嵌入式道德(Embedded Ethics)」,法定機器語言框架是以合法性還有安全性議題的工程學觀點為依據 -- 我們在不遠的將來得面對那些," 陳建勳表示。"在這種架構中,安全性議題不是只有基於機器人的自主智慧,如同艾西莫夫三定律中的那些。相反的,這些安全性議題依據個別屬性(individual properties)與途徑(approaches,例如機器人的嵌入式安全性智慧、機器人與人類間的操作規矩)被區分成不同的層次。因此,機器人的安全性議題,未來能在這種框架下一步步地被解決。"

翁岳暄也提到,透過避免機器人理解人類語言,一般來說,法定機器語言能在人類與機器人之間幫忙維持一定距離。

"如果機器人有朝一日能精確地詮釋人類法定語言,我們應該考慮賦予它們法律地位或權利?" 他說。"人類司法體系應該變成人類--機器人司法體系?那也許有機器人律師、機器人法官與人類律師工作,或著人類法官處理發生在人類與機器人間的法律訴訟。機器人也許學會人類的仁慈,不過它們或許也學會了來自於人類的欺騙、虛偽和貪婪。這裡有太多問題等著我們;因此,我們必須要考慮:讓機器人與人類司法制度保持一定距離還有不要太靠近人類,是否比較好。"

除了利用機器語言在人類與機器人間保持一定距離外,研究者們也考慮限制一般機器人的能力。作者們提議的另一部份顧慮「基於人類的智慧機器人(human-based intelligence robots)」,那是指具有高度認知能力的機器人,那允許抽象思考以及看待某人環境的新方式。不過,因為一種獲普適公認的人類智慧定義尚未存在,故「基於人類智慧」定義的一致性也就比較少。然而,絕大部份的機器人學研究者預言,隨著計算人工智慧的突破(在其中,在缺乏明確程式化規則的情況下,機器人學習並適應其環境),「基於人類的智慧」必然會成真。可是,由於這些潛在問題與缺乏需求,有愈來愈多的研究者 -- 以及這項研究的作者們 -- 正朝著禁止「基於人類的智慧」傾斜;此外,機器人學的原始目標是發明有用的工具供人類使用,而非設計假人(pseudo-humans)。

在他們的的研究中,作者們也強調了為人類--機器人共存社會作準備的先期嘗試。例如,European Robotics Research Network (EURON) 是一個私人組織,其活動包括研究機器人道德,例如它的「Roboethics Roadmap」計畫。南韓政府也發展出一種 Robot Ethics Charter(機器人道德憲章),那成為世上第一個公立的機器人道德指導方針,包括保護它們免遭人類濫用。同樣地,日本政府透過它的 Robot Policy Committee 研究安全性議題。在 2003 年,日本也設立了 Robot Development Empiricism Area,一座「機器人城市」,那被設計成讓研究者能測試機器人在真實環境中如何表現。

儘管有這些對於機器人安全性的研究,管理者仍面臨許多挑戰,無論是在技術或著是社會層面。舉例來說,在技術這方面,機器人是否該以安全性規則來程式化,或著它們該被創造成具有「安全導向推理」的能力?機器人道德是否該根基於「以人為中心的」價值體系上,或著是一種「以人為中心的價值體系」以及「以機器人自己的價值體系」的結合?又或著,從法律上來說,當某件機器人意外確實發生時,責任應當如何區分(例如,分成設計者、製造者、使用者或甚至是機器人本身)?

翁岳暄也指出,當機器人變得與人類社會更融為一體時,一個法律框架的重要性對於社會上的機器人將更加顯著。他預測,當人類--機器人共存社會浮現時,如何在「人類--機器人之間的互動(機器人技術發展)」以及「社會體系設計(法律規範框架)」維持平衡的決定,將成為安全性當中的最大挑戰。

更多資訊:
http://www.yhweng.tw

※ 還有人造生物(人)、半人半機器人的問題也需要討論。相關報導:

* Toward the Human-Robot Co-Existence Society: On Safety Intelligence for Next Generation Robots
http://www.springerlink.com/content/p8722626n12400l9/
Yueh-Hsuan Weng, Chien-Hsun Chen, and Chuen-Tsai Sun
International Journal of Social Robotics.
doi: 10.1007/s12369-009-0019-1
人性機器的種子
發現科學新知的電腦與機器人
日本小孩機器人模仿幼兒學習
可自動重新配置自己的太空機器人

2 則留言:

fsj 提到...

機器人吃人肉?其實是吃素

自由時報 2009.07.21

〔編譯管淑平/綜合報導〕竟然有人研發出以吃人肉為動力來源的機器人?眼看媒體接連下出有如「魔鬼終結者」系列電影情節的「吃人肉的機器人」聳動標題,研發「能量自主戰術機器人」(EATR)的業者出面澄清,這款未來機器人「吃素」不吃肉,而「吃素」的意思是,EATR會自己搜尋有機植物轉換成生質燃料。

將有機植物轉換成生質燃料

EATR機器人開發商之一、旋風動力科技公司(CPT)執行長薛爾說:「我們完全理解大家對未來機器人吃人肉的關切,但這可不是我們的初衷」,該公司致力於展現其機器人引擎能從植物性、可再生植物創造出可用的綠色能源。「光是在商業應用上,這種環保能源解決方案就具有龐大潛力。」這份聲明是回應最近傳得沸沸揚揚的消息指稱,這款已經進入測試階段機器人會「吃人肉。」

EATR的構想是在二○○三年提出,獲得五角大廈國防先進研究計畫局(DARPA)贊助,初期版本的EATR會自行收集樹枝、木屑和其他植物性物質,餵給蒸汽引擎「吃」,將這些物質燃燒後產生生質燃料作為動力來源。

參與研發的機器人科技公司(RTI)芬克士丹博士說,EATR內建有可分辨「吃」入的物質是動物、植物還是礦物的辨識系統,「菜單(選單)上沒有的,它就不會吃」,尤其是不會吃傳聞中的人類或動物屍體。

EATR也可以使用較傳統的燃料,如汽油、柴油或食用油,使其動力來源相當有彈性,可以放出去自己「遊牧」好幾個月、甚至數年,不需要補充燃料或維修。

五角大廈希望以EATR為基礎,開發出能在戰場上動力自主的機器人,一次能自給自足達數月,應用途徑如戰場運輸、戰場救護、通訊中心或行動砲塔(mobile gunship)。

fsj 提到...

網友去世 數位資產歸誰?
http://mag.udn.com/mag/digital/storypage.jsp?f_ART_ID=219828

聯合新聞網 2009/11/02

線上遊戲愈來愈夯,例如Facebook的開心農場虛擬農夫人數暴增,使虛擬商品形成可觀商機,最近有一份報告指出,美國虛擬商品市場規模今年預計將超過 10億美元,全球金額更將達50到60億美元,但在商機背後,身故網友的虛擬資產如何處理,存在不少爭議。

線上遊戲愈來愈夯,例如Facebook的開心農場虛擬農夫人數暴增,使虛擬商品形成可觀商機,最近有一份報告指出,美國虛擬商品市場規模今年預計將超過10億美元,全球金額更將達50到60億美元,但在商機背後,身故網友的虛擬資產如何處理,存在不少爭議。

《紐約時報》報導,化名Enchant的女子和化名Leto的男子2005年在第二人生 (Second Life)虛擬世界相遇,同年虛擬結婚,並在一座虛擬海島上蓋了房子。Leto本尊在2008年因肝臟衰竭去世,六個月後,創造第二人生的林登實驗室把他的虛擬房子拆了,Enchant只剩幾項複製虛擬物品,不免有怨言。

美國士兵賈斯汀2004年底在伊拉克陣亡,雅虎以使用合約規定為由,拒絕提供賈斯汀的電子郵件密碼或郵件給他家人,糾紛鬧上法院,法官2005年裁定雅虎交出資料,但這類數位資產的法律所有權並無明確判例可循。

Myspace、YouTube這些網站的名稱或許會讓網友認為,他們營造的內容屬於自己,但實際上,電子郵件服務、社交網路、虛擬不動產的提供業者可能掌握生殺大權。

網友去世,誰有權處理其名下數位資產還是有辦法解決。例如,網友生前可指定數位遺產執行人,網友死亡時,執行人有權取得最新密碼。然而,執行人若在服務提供者不知情的情況下以死者帳密登入,可能涉及冒用身分。普林斯頓大學科技政策資訊中心訪問學者迪賽表示,網友申請帳戶時,服務提供業者可詢問申請人,身故時要把帳戶清除或讓別人處理,如果要讓別人處理,就指定數位遺產執行人,這樣或許可以輕鬆避免爭議。