人本智能的深化發展將建立在創新變革、安全規范等多重維度的平衡之上。這需要通過有效的治理策略來實現平衡, 規避 AI 繁榮背后潛藏的風險。由此引出的 AI 治理和實踐,不僅是技術層面的問題,更是社會問題,需要全社會共同 面對。作為目前 AI 領域主力軍的頭部科技企業亦紛紛擁抱 AI 倫理和治理,并努力將“人的因素”納入產業布局和實 踐當中。
根據騰訊研究院高級研究員曹建峰的總結 ,2016 年至今,從原則到實踐,AI 科技倫理成為“必選項”經歷了如下三 個階段。
原則爆發階段:全球各大行業和一些知名企業及研究機構提出了自己的 AI 倫理原則。2016 年,谷歌、微軟、亞馬 遜、Facebook、IBM 等五大科技公司聯合成立了“人工智能伙伴關系”(Partnership on AI),旨在促進 AI 技術的公 益、安全、可信、透明和可理解性,以及保護人類的社會和文化價值。2017 年,歐盟委員會發布了《歐洲人工智能戰 略》,提出了“人本”的 AI 愿景,強調 AI 技術應該尊重人類的尊嚴、自由、民主、平等、法治和人權,并提出了一系列 的行動計劃和措施。
共識尋求階段:加強 AI 國際治理,OECD 等機構主張推動建立國際公認的倫理框架準則。2019 年,聯合國教科文 組織發布了《人工智能倫理問題報告》,提出了“人類中心”的 AI 原則,強調 AI 技術應該以人類的尊嚴和權利為核心, 以人類的多樣性和包容性為基礎,并提出了一系列的倫理指導和建議。
倫理實踐階段:很多企業都在探討如何將 AI 原則貫徹到日常技術實踐中。例如,Google Cloud 采取措施打造負責 任的 AI;微軟設立負責任 AI 辦公室,全面推進負責任 AI 的落地實施。
已有的行業實踐包括設立倫理委員會,組織培訓和審查,以確保在設計活動中考慮倫理要求;構建“AI 模型說明書”, 推動 AI 算法的透明性和可解釋性。例如,谷歌推出的“模型卡”工具集(Model Card Toolkit),以及 IBM 的 AI 事 實清單等。行業實踐還包括以倫理工具方式呈現的“倫理即服務”,針對可解釋、公平、安全、隱私等方面的倫理問 題,研發并開源技術工具。例如,IBM 根據其 AI 倫理的五大支柱——可解釋性、公平性、魯棒性(穩健性)、透明性、 隱私性,提出了 5 種針對性的技術解決方案
機器人底盤 Disinfection Robot 消毒機器人 講解機器人 迎賓機器人 移動機器人底盤 商用機器人 智能垃圾站 智能服務機器人 大屏機器人 霧化消毒機器人 紫外線消毒機器人 消毒機器人價格 展廳機器人 服務機器人底盤 核酸采樣機器人 智能配送機器人 導覽機器人 |