機(jī)器與人 怎樣當(dāng)好“合伙人” 人工智能的倫理法律話題引熱議
2018-08-17 07:54:13 來源: 人民日報(bào)
關(guān)注新華網(wǎng)
微博
Qzone
評論
圖集

  在京舉行的世界機(jī)器人大會(huì)上,人工智能的倫理法律話題引熱議

  機(jī)器與人 怎樣當(dāng)好“合伙人”

  15日,2018世界機(jī)器人大會(huì)在北京亦創(chuàng)國際會(huì)展中心開幕,展示全世界機(jī)器人產(chǎn)業(yè)的最新成果。為期3天的論壇上,由機(jī)器人發(fā)展引發(fā)的人工智能倫理和法律話題就是議題之一。

  應(yīng)當(dāng)建立規(guī)范機(jī)器人及其使用行為的法律框架

  在國際人工智能界,不少人認(rèn)為人工智能會(huì)對人類產(chǎn)生巨大威脅,呼吁不要開發(fā)“人工智能自主武器”,警惕人工智能的潛在風(fēng)險(xiǎn)。他們討論的人工智能,通常指的是未來能自主進(jìn)化、有類人意識的“強(qiáng)人工智能”,而當(dāng)前應(yīng)用的多是擅長單項(xiàng)任務(wù)、完成人類指令的“弱人工智能”。即便如此,人工智能的迅速發(fā)展帶來的挑戰(zhàn)已經(jīng)逐漸顯現(xiàn)。

  為保護(hù)隱私,人們發(fā)布照片或視頻時(shí),會(huì)打上馬賽克覆蓋人臉,但美國一個(gè)研究小組開發(fā)了一套機(jī)器學(xué)習(xí)算法,通過訓(xùn)練,神經(jīng)網(wǎng)絡(luò)可以識別圖像或視頻中隱藏的信息。

  時(shí)下,一些機(jī)器人應(yīng)用到兒童和老人陪護(hù)中。中國社會(huì)科學(xué)院哲學(xué)研究所研究員段偉文認(rèn)為,機(jī)器人與兒童對答、給老人喂飯等行為看似簡單,長期相處可能使人類對機(jī)器傾注感情、產(chǎn)生依賴,有必要設(shè)置防止過度依賴機(jī)器人的原則。此外,無人駕駛汽車發(fā)生交通事故怎么界定責(zé)任,醫(yī)療外科手術(shù)機(jī)器人出現(xiàn)意外怎樣處置……隨著智能機(jī)器人深入?yún)⑴c人類生活,專家認(rèn)為,如何建立規(guī)范機(jī)器人及其使用行為的法律框架,成為人工智能和機(jī)器人產(chǎn)業(yè)發(fā)展無法回避的重要問題。

  清華大學(xué)人工智能研究院院長、中科院院士張鈸曾表示,當(dāng)前的人工智能與人類智能本質(zhì)上是不同的。與人類相比,人工智能系統(tǒng)抗干擾能力差,推廣能力弱,甚至可能犯大錯(cuò)。因此使用這樣的人工智能系統(tǒng)需要小心。

  思考與智能機(jī)器的相處模式,控制不良影響

  人工智能的發(fā)展幾經(jīng)波折,也在不斷進(jìn)化。

  “人工智能及其智能化自動(dòng)系統(tǒng)的普遍應(yīng)用,不僅僅是一場結(jié)果未知的科技創(chuàng)新,更可能是人類文明史上影響深遠(yuǎn)的社會(huì)倫理試驗(yàn)?!倍蝹ノ恼f。

  北京師范大學(xué)哲學(xué)學(xué)院教授田海平表示,機(jī)器深度學(xué)習(xí)和算法體系,使得智能體具有了一種準(zhǔn)人格或擬主體的特性。當(dāng)前,“阿爾法狗”、醫(yī)療機(jī)器人“沃森”和智能伴侶虛擬機(jī)器人微軟“小冰”仍屬于“弱人工智能”,離真正的智能主體還比較遠(yuǎn)。即便如此,它們也已經(jīng)呈現(xiàn)改變?nèi)祟愋螒B(tài)的發(fā)展趨勢。未來假若“強(qiáng)人工智能”出現(xiàn),并深度介入人類事務(wù),那么,“我們必須提前思考人類如何與之相處的問題,控制它的不良影響。”田海平說:“人工智能是否以及如何為自己的行為負(fù)責(zé),這仍然且始終是技術(shù)難題?!?/p>

  近年來,國際人工智能界日益重視人工智能中的倫理與法律問題,并推動(dòng)相關(guān)技術(shù)標(biāo)準(zhǔn)及社會(huì)規(guī)范的研討和制定。2017年1月,一個(gè)國際學(xué)術(shù)會(huì)議制定并發(fā)布了人工智能23條倫理原則,其中包括,人工智能研究的目標(biāo)應(yīng)該建立有益的智能,而不是無向的智能;人工智能系統(tǒng)的設(shè)計(jì)和運(yùn)作應(yīng)符合人類尊嚴(yán),權(quán)利,自由和文化多樣性的理念等。電氣和電子工程師協(xié)會(huì)(IEEE)也頒布了《人工智能設(shè)計(jì)的倫理準(zhǔn)則》,試圖從工程設(shè)計(jì)和生產(chǎn)的角度,提出人工智能的倫理標(biāo)準(zhǔn)。

  我國人工智能研究及實(shí)踐走在世界前列,但在相關(guān)機(jī)器倫理、立法研究和安全標(biāo)準(zhǔn)等方面起步相對較晚,近些年正在積極加強(qiáng)這些方面的研究。

  有專家表示,人工智能倫理法律等涉及科學(xué)界、企業(yè)界、哲學(xué)、法學(xué)等多個(gè)領(lǐng)域,有必要成立應(yīng)對人工智能發(fā)展的聯(lián)盟組織,吸納各方面的力量,共同推進(jìn)相關(guān)研究。

  運(yùn)用算法,將人類道德規(guī)范體系嵌入智能機(jī)器

  段偉文說,人工智能系統(tǒng)的“擬主體性”,使得它們的行為可以看作是與人類倫理行為類似的擬倫理行為。因此,人工智能界在探討能不能運(yùn)用智能算法,將人類的價(jià)值觀和道德規(guī)范體系嵌入到智能機(jī)器中。有專家認(rèn)為,這既是人工智能未來愿景,也是當(dāng)前面臨的最大挑戰(zhàn)。

  田海平說,把道德代碼嵌入機(jī)器,是人工智能發(fā)展的必然趨勢。缺少這一步,自動(dòng)駕駛、無人機(jī)、助理機(jī)器人等智能體就不可能進(jìn)入人類生活。機(jī)器在自主性上達(dá)到了人類高度后,它在做決策時(shí),只有遵循道德算法,才能發(fā)展各種各樣的功能。

  段偉文介紹,讓機(jī)器符合人類道德規(guī)范,學(xué)界大體有3種設(shè)想:一是自上而下,即在智能體中預(yù)設(shè)一套倫理規(guī)范,如自動(dòng)駕駛汽車應(yīng)將撞車對他人造成的傷害降到最低;二是自下而上,即機(jī)器通過數(shù)據(jù)驅(qū)動(dòng),學(xué)習(xí)人類的倫理德道規(guī)范;三是人機(jī)交互,即讓智能體用自然語言解釋其決策,使人類能把握其復(fù)雜的邏輯并及時(shí)糾正可能存在的問題。

  “人工智能倫理研究目前沒有一套普遍原則,因此可以從應(yīng)用中遇到的實(shí)例出發(fā),找到價(jià)值沖突點(diǎn),討論需要作哪些倫理考慮。”段偉文說,比如針對偏見,有必要追溯到機(jī)器學(xué)習(xí)的數(shù)據(jù)中,完善數(shù)據(jù)信息,并改進(jìn)算法,讓人工智能判斷盡量客觀公正,符合人類的價(jià)值觀。

  盡管人工智能發(fā)展存在許多潛在問題,但更多人對技術(shù)應(yīng)用的前景表示樂觀。他們認(rèn)為,人工智能能提供更安全、更智能的生活體驗(yàn),不能因?yàn)榧夹g(shù)潛在的不足而因噎廢食,在提前布局,防范可能出現(xiàn)的挑戰(zhàn)的同時(shí),也要利用新技術(shù)來應(yīng)對風(fēng)險(xiǎn)。

  以隱私安全為例,人工智能并不是隱私的天敵。北京大學(xué)信息科學(xué)技術(shù)學(xué)院教授郭耀說,利用人工智能技術(shù)能夠應(yīng)對一些常規(guī)方法難以應(yīng)對的安全問題。比如,基于行為分析,人工智能可以快速檢測出惡意軟件,通過機(jī)器學(xué)習(xí)還能及時(shí)檢測異常網(wǎng)絡(luò)流量行為,預(yù)警黑客入侵,從而提升網(wǎng)絡(luò)安全防御水平。

  張鈸說,不管人工智能如何發(fā)展,基本理念應(yīng)該不是用智能機(jī)器代替人,而是要協(xié)助人做好工作。人和機(jī)器各有優(yōu)勢,要互相了解才能實(shí)現(xiàn)人機(jī)協(xié)作,但人還是人機(jī)關(guān)系的主導(dǎo)者。如此,才可能將人工智能引向人機(jī)合作的發(fā)展道路。

  喻思南

+1
【糾錯(cuò)】 責(zé)任編輯: 郝多
相關(guān)新聞
新聞評論
加載更多
藍(lán)天白云下的京城美景
藍(lán)天白云下的京城美景
錫耶納舉行傳統(tǒng)賽馬節(jié)
錫耶納舉行傳統(tǒng)賽馬節(jié)
2018世界機(jī)器人大會(huì)在京開幕
2018世界機(jī)器人大會(huì)在京開幕
意大利塌橋事故死亡人數(shù)增至39人
意大利塌橋事故死亡人數(shù)增至39人

?
010020020110000000000000011101011123282820