加強人工智能國際治理和合作
| 2025-03-11 09:32:02??來源:人民日報 責任編輯:肖練冰 我來說兩句 |
分享到:
|
人工智能技術的發展不僅為人類帶來了前所未有的機遇,也帶來了一系列治理挑戰。特別是對于數據這個人工智能的核心要素來說,數據安全問題不僅涉及個人隱私還涉及國家安全、經濟安全。如何平衡技術創新與治理規范,已成為全球共同面對的課題。 人工智能的發展正在重塑全球治理體系,多個國際組織和國家間合作平臺已開始推動人工智能治理框架的建立。然而,目前人工智能治理總體仍處于碎片化、陣營化等滯后狀態,缺乏統一的全球協調機制。人工智能國際治理與合作需要在規則協調、技術普惠、安全可控三大方面取得突破,以確保人工智能的發展符合全人類的共同利益,而非成為技術壟斷、數據壁壘和地緣政治競爭的工具。 加快建立全球人工智能治理框架,推動多邊規則協調。在聯合國、二十國集團等多邊機制下,各國應圍繞人工智能倫理、數據治理、算法透明度、跨境監管等關鍵議題達成共識,減少政策分歧,避免治理碎片化。同時,需推動全球法律和標準的對接,在世界貿易組織、二十國集團等平臺上協商人工智能相關規則,避免個別國家壟斷技術標準,確保全球人工智能產業的公平競爭。此外,還需鼓勵區域與雙邊人工智能治理合作,探索與不同國家發展階段相適應的人工智能監管模式,構建更加靈活、多層次的治理體系。 推動全球人工智能能力建設,促進技術普惠。加強發展中國家人工智能技術能力建設,通過聯合國“加強人工智能能力建設國際合作”決議,推動人工智能技術、人才、基礎設施的開放共享,縮小全球數字鴻溝。同時,建立國際人工智能技術共享平臺,推動負責任技術流動,避免數據壁壘和技術壟斷限制發展中國家的技術升級,確保發展中國家能公平利用數據資源。此外,全球人工智能合作也需要加強國內外企業和學術機構的協作,推動跨國企業共建人工智能產業生態,促進全球人工智能人才交流,避免“人才保護主義”阻礙技術進步。 強化全球人工智能風險治理,確保人工智能安全可控。人工智能技術的廣泛應用帶來了倫理風險、算法歧視、數據安全隱患和軍事化風險,國際社會需盡快建立人工智能風險評估與預警體系,在軍事、金融、醫療等關鍵領域完善技術安全評估、算法透明度審查和責任追溯機制,確保人工智能發展符合全球社會責任。此外,各國需加強人工智能倫理與算法監管,健全全球范圍內的算法歧視審查,制定人工智能透明度標準,以確保人工智能發展符合人類社會的共同價值觀。 (摘自《人民日報》3月3日發表,蔡翠紅撰寫的《加強人工智能國際治理和合作》) |
相關閱讀:
![]() |
![]() |
打印 | 收藏 | 發給好友 【字號 大 中 小】 |




