語音播報
日前,歐盟委員會發(fā)布人工智能倫理準則,宣布同時開啟該準則的試行階段,并邀請企業(yè)和研究機構(gòu)對這一準則進行測試。人工智能發(fā)展的數(shù)十年間,經(jīng)歷了多次起伏。今天,人們對深度學(xué)習(xí)、大數(shù)據(jù)、通用人工智能帶來的成果期許有加。
“但仍然需要有人察覺這些技術(shù)中黑暗的一面。”4月20日,在中國社會科學(xué)院科學(xué)技術(shù)和社會研究中心舉辦的人工智能的社會、倫理與未來研究研討會上,美國技術(shù)哲學(xué)家卡爾·米切姆引用莎士比亞劇作《威尼斯商人》中的一句話——閃光之物,未必是金,以提醒人們發(fā)展人工智能技術(shù)時可能面對的倫理挑戰(zhàn)。
值得慶幸的是,人工智能研究者已經(jīng)開始與人文領(lǐng)域深度融合。
“2018年開始,我們就在中國科學(xué)院大學(xué)面向人工智能和計算機科學(xué)的研究生開設(shè)了《人工智能哲學(xué)與倫理》課程。據(jù)我了解,今年北京大學(xué)、浙江大學(xué)、西安交通大學(xué)等高校也逐步開始設(shè)置人工智能倫理相關(guān)的課程?!敝袊茖W(xué)院自動化研究所研究員曾毅在報告時指出。
曾毅還指出,迄今為止,由政府、非政府組織及研究機構(gòu)和產(chǎn)業(yè)界頒布的人工智能倫理準則提案已經(jīng)超過40個。
但不同的準則涉及的議題視角各不相同。曾毅告訴《中國科學(xué)報》,其研究團隊對這些提案進行過梳理,但“沒有任何一個提案可以覆蓋其他提案超過65%的議題”。
曾毅團隊主要從事類腦人工智能研究。他認為,從人工智能研究長遠發(fā)展來看,對人工智能風(fēng)險、安全與倫理的思考急需算法化、模型化落地,從而確保人工智能向有益社會的方向發(fā)展。
“技術(shù)發(fā)展會對倫理準則提出新的要求。由于文化、地域、領(lǐng)域的差異,‘大一統(tǒng)’的準則提案不但很難做到,而且沒有必要。因此,不同國家、組織之間倫理準則如何協(xié)同很重要?!痹阏f,“這些準則如何進行技術(shù)落地、經(jīng)受社會檢驗,再不斷迭代完善,是未來要面臨的更有意義的問題?!?/p>
在當前對人工智能倫理的討論中,還有一些問題亟待解決。
曾毅在報告中提到,“由于設(shè)計缺陷,現(xiàn)階段的很多人工智能模型,更關(guān)心如何獲得最大的計算獎勵,但忽略了對環(huán)境和社會造成的潛在隱患?!?/p>
以強化學(xué)習(xí)模型為例,模型中會設(shè)計一個獎勵函數(shù),以幫助模型在與環(huán)境交互過程中通過獲得盡可能多的獎賞進行學(xué)習(xí),但如果獎勵函數(shù)設(shè)置不合理,為了完成任務(wù),很可能會忽略對周圍環(huán)境和其他智能體的影響,并產(chǎn)生不可逆的后果。
“目前絕大多數(shù)的人工智能沒有自我的核心,不能區(qū)分自我和他人。而人類的經(jīng)驗、對外部事物的揣測,建立在自我經(jīng)驗的基礎(chǔ)之上。”曾毅告訴記者。對自我的計算建模也是當前人工智能領(lǐng)域一個關(guān)鍵問題,“具有一定程度自我感知能力的人工智能模型從本質(zhì)上更利于自主學(xué)習(xí)、理解人類的價值觀”。
© 1996 - 中國科學(xué)院 版權(quán)所有 京ICP備05002857號-1 京公網(wǎng)安備110402500047號 網(wǎng)站標識碼bm48000002
地址:北京市西城區(qū)三里河路52號 郵編:100864
電話: 86 10 68597114(總機) 86 10 68597289(總值班室)
編輯部郵箱:casweb@cashq.ac.cn
© 1996 - 中國科學(xué)院 版權(quán)所有 京ICP備05002857號-1 京公網(wǎng)安備110402500047號 網(wǎng)站標識碼bm48000002
地址:北京市西城區(qū)三里河路52號 郵編:100864
電話: 86 10 68597114(總機) 86 10 68597289(總值班室)
編輯部郵箱:casweb@cashq.ac.cn
© 1996 - 中國科學(xué)院 版權(quán)所有
京ICP備05002857號-1
京公網(wǎng)安備110402500047號
網(wǎng)站標識碼bm48000002
地址:北京市西城區(qū)三里河路52號 郵編:100864
電話:86 10 68597114(總機)
86 10 68597289(總值班室)
編輯部郵箱:casweb@cashq.ac.cn