在博鰲亞洲論壇2025年年會上,AI元素成為了眾人矚目的焦點。光谷人形機器人以專業且親和的姿態擔任講解員,為來賓們詳細介紹各類信息;憨態可掬的熊貓機器人揮舞畫筆,展示出令人驚嘆的繪畫技藝;機器狗靈活地完成倒立等高難度動作,吸引了眾多目光。這些生動有趣的AI應用不僅為年會增添了科技魅力,更引發了廣泛關注,與會嘉賓圍繞人工智能的迅猛發展及其相關議題展開了熱烈討論。然而,在AI技術高歌猛進的當下,如何強化風險治理也已成為亟待解決的關鍵問題。
中國工程院院士、清華大學智能產業研究院院長張亞勤指出:“當前,我國人工智能行業的發展正經歷著從生成式AI向Agent智能、從預訓練向推理、從信息智能向物理智能和具身智能的轉變。但這種快速的技術進步也伴隨著風險的顯著增加。”他進一步解釋,智能體作為具有自我規劃、學習和實踐能力的技術工具,在運行過程中可能會因路徑不可控,引發一系列未知的安全風險。
針對這一挑戰,張亞勤提出了技術治理路徑。一方面,通過算法優化提升AI的可控性與可信度,從技術基層增強對AI的掌控;另一方面,為人工智能設定明確的紅線和邊界,比如禁止智能體進行自我復制,嚴格遵守現行的應用規則和法律規定,為AI發展劃定清晰的行為準則。
在加強AI風險治理是否會阻礙其發展的問題上,中國科學院自動化研究所研究員曾毅給出了明確的否定答案。他表示:“人工智能的發展應用和安全之間并非相互掣肘的關系。提升人工智能大模型的安全能力,對其求解能力的影響微乎其微。我們團隊通過實驗,將十幾個大模型的安全性能提高了百分之二三十,結果發現這些模型解答問題的能力并未受到影響。”
曾毅提倡通過技術升級為人工智能建立“安全圍欄”,而這需要技術、市場、政策、倫理等多方面協同發力。他強調:“必須將倫理安全作為人工智能大模型發展的基因,作為不可違背的第一性原理。”只有如此,才能在AI技術持續發展、智能體應用不斷深入的過程中,保障其穩健前行,降低因技術擴張帶來的各類風險。
中國社會科學院大學教授、國務院原副秘書長江小涓坦言:“我對過去很多年AI治理的進展感到遺憾,相關治理原則在落地執行方面成效有限。”她認為,這主要是由于過于泛泛地討論原則問題,卻忽視了將這些原則具體化、可操作化的重要性。2017年的阿西洛馬會議上,與會各方制定了一套確保人工智能安全有益發展的準則,涵蓋了安全性、故障透明度、價值觀一致等23條原則。江小涓指出:“阿西洛馬人工智能原則提出至今,一直被反復討論。今年2月在法國巴黎舉行的人工智能行動峰會,各國簽署的聲明依舊延續了過去提出已久的原則。實際上,如何落地、如何實踐仍是最大的挑戰。”
從經濟學的角度出發,江小涓探討了人工智能治理的可行性路徑。她認為,AI治理可借助自發秩序和市場機制的力量。以DeepSeek為例,其最大貢獻在于打破了AI行業的壟斷格局,使這一領域從寡頭競爭轉變為充分競爭的市場。在這樣的市場環境下,發展和安全問題能夠通過市場自發的秩序解決。
在AI技術飛速發展的今天,博鰲亞洲論壇2025年年會聚焦AI風險治理的深入討論,為未來AI發展與風險治理的平衡凝聚了各方智慧。各方需共同努力,推動AI在安全、健康的軌道上持續創新發展。
責任編輯: 張磊