機(jī)器人倫理準(zhǔn)則官方解析:不要歧視,不做傷害人的事
matthew 2016.09.21 08:18 人工智能概念股
美國著名小說家艾薩克·阿西莫夫(Isaac Asimov)曾為我們指出過機(jī)器人的基本行為規(guī)則:不傷害人類、服從命令和保護(hù)機(jī)器人自己。最近,英國標(biāo)準(zhǔn)研究院( BSI )發(fā)布了一份更為官方的機(jī)器人倫理準(zhǔn)則文件,旨在幫助設(shè)計(jì)者創(chuàng)造合乎倫理的機(jī)器人。
BSI 發(fā)布的這份文件叫作“BS8611 機(jī)器人和機(jī)器人設(shè)備”,這是一份用干巴巴的語言編寫的健康和安全手冊,但里面所強(qiáng)調(diào)的不良場景可能直接取自科幻小說。機(jī)器人欺騙、過度依賴機(jī)器人和自主學(xué)習(xí)系統(tǒng)可能會(huì)超出他們的權(quán)限,這些都是制造商應(yīng)該考慮到的危害。
這份文件是在牛津?Social Robotics and AI?大會(huì)上提出的,是英格蘭大學(xué)的機(jī)器人技術(shù)教授 Alan Winfield 指出,這些準(zhǔn)則代表了將倫理價(jià)值嵌入機(jī)器人和人工智能的第一步。這是第一個(gè)公開發(fā)表的、針對(duì)機(jī)器人設(shè)計(jì)的倫理標(biāo)準(zhǔn),比阿西莫夫的法則更為復(fù)雜,提出了如何對(duì)機(jī)器人的倫理風(fēng)險(xiǎn)進(jìn)行評(píng)估。
BSI 文件的內(nèi)容一開始是一系列寬泛的倫理原則:設(shè)計(jì)機(jī)器人的目的不應(yīng)該是為了殺死或傷害人類;負(fù)責(zé)任的主體應(yīng)該是人,而不是機(jī)器人;要能夠找出對(duì)機(jī)器人及其行為負(fù)責(zé)的主體。
接下來的內(nèi)容重點(diǎn)強(qiáng)調(diào)了一系列更具爭議性的問題,比如同機(jī)器人建立感情紐帶是否可取,尤其是設(shè)計(jì)的機(jī)器人是用來與兒童或老年人進(jìn)行互動(dòng)的。
謝菲爾德大學(xué)機(jī)器人和人工智能名譽(yù)教授 Noel Sharkey 舉了一個(gè)例子,說明機(jī)器人可以無意地欺騙我們。在一個(gè)幼兒園配備有小機(jī)器人,孩子們很喜歡它,認(rèn)為機(jī)器人比他們的家庭寵物認(rèn)知性更強(qiáng),實(shí)際上就是和機(jī)器人建立了情感紐帶。
該準(zhǔn)則表明設(shè)計(jì)者應(yīng)該致力于透明化,但科學(xué)家們卻說,在實(shí)際操作中這可能是非常困難的,因?yàn)槟壳?AI 系統(tǒng)的問題,特別是這些深度學(xué)習(xí)系統(tǒng),是不可能知道為什么他們會(huì)做出這樣或那樣決定的。比方說,深度學(xué)習(xí)代理在完成某一項(xiàng)具體任務(wù)時(shí),并不是按設(shè)定的方式;他們會(huì)嘗試數(shù)百萬次,來找到一個(gè)成功的策略,以此來執(zhí)行任務(wù)——有時(shí)候這些策略是設(shè)計(jì)者都預(yù)想不到和無法理解的。
該準(zhǔn)則甚至暗示了可能會(huì)出現(xiàn)帶有性別歧視或種族歧視的機(jī)器人,并警惕大家:這些機(jī)器人可能會(huì)缺乏對(duì)文化多樣性和多元主義的尊重。這一現(xiàn)象已經(jīng)出現(xiàn)在警察所使用的技術(shù)上,比方說機(jī)場應(yīng)用該類技術(shù)識(shí)別出可疑的人,并將其進(jìn)行攔截,這就是一種種族歧視的評(píng)判。
并且,深度學(xué)習(xí)系統(tǒng)基本上使用互聯(lián)網(wǎng)上的全部數(shù)據(jù),但問題是,這些數(shù)據(jù)是帶有傾向性的,就像這些系統(tǒng)傾向于支持中年白人男子。所有人類的偏見都有可能被納入系統(tǒng),這非常危險(xiǎn)。
未來的醫(yī)學(xué)應(yīng)用程序還存在一種風(fēng)險(xiǎn),即在診斷女性或少數(shù)民族患者時(shí),系統(tǒng)可能不太熟練。已經(jīng)有這樣的例子:語音識(shí)別軟件在理解女性時(shí)表現(xiàn)較差;面部識(shí)別項(xiàng)目在識(shí)別黑人面孔時(shí),不像識(shí)別白人那樣簡單。
Sharkey 建議給機(jī)器人也安裝一個(gè)黑匣子,可以打開和檢查。如果一個(gè)機(jī)器人存在種族歧視,可以關(guān)掉它,并將它撤回。
該文件也關(guān)注了更廣泛的社會(huì)問題,如對(duì)機(jī)器人的過渡依賴,但沒有就如何處理這些問題,給設(shè)計(jì)者一個(gè)明確的引導(dǎo)。
當(dāng)您在一定時(shí)間內(nèi)使用一個(gè)機(jī)器,它給你正確的答案,你就會(huì)信任它,,并且變得懶惰,但是之后它提供給你的東西可能會(huì)非常愚蠢,這也是過度依賴自動(dòng)化的一種形式。
也許著眼于更遙遠(yuǎn)的將來,BSI 文件也提醒我們警惕流氓機(jī)器的危險(xiǎn),這些機(jī)器可能開發(fā)或修訂行動(dòng)計(jì)劃,可能帶來無法預(yù)料的后果和潛在法律責(zé)任。
BSI 制造業(yè)主管 Dan Palmer 表示,機(jī)器人和自動(dòng)化技術(shù)的應(yīng)用,能夠使各種流程更有效率、更靈活,適應(yīng)性更強(qiáng),是制造業(yè)增長的重要支柱。但是,反人性或過分依賴機(jī)器人等倫理問題和危害是確實(shí)存在的,并亟待解決。這份關(guān)于如何處理各種機(jī)器人應(yīng)用程序的準(zhǔn)則,將幫助設(shè)計(jì)者和機(jī)器人用戶以及自動(dòng)化系統(tǒng)建立一個(gè)新的工作領(lǐng)域。
人工智能概念股:埃斯頓、科大智能、漢王科技、江南化工、華東數(shù)控、和而泰、中科曙光、永創(chuàng)智能、北京君正、通富微電、永創(chuàng)智能、勁拓股份。
人工智能概念股
那么問題來了:最值得配置的人工智能概念股是哪只?即刻申請(qǐng)進(jìn)入國內(nèi)首個(gè)免費(fèi)的非公開主題投資交流社區(qū)概念股論壇參與討論!
申明:本文為作者投稿或轉(zhuǎn)載,在概念股網(wǎng) http://www.guangshenggb.com/ 上發(fā)表,為其獨(dú)立觀點(diǎn)。不代表本網(wǎng)立場,不代表本網(wǎng)贊同其觀點(diǎn),亦不對(duì)其真實(shí)性負(fù)責(zé),投資決策請(qǐng)建立在獨(dú)立思考之上。