21世紀經濟報道 記者 鄭雪 北京報道
(資料圖片僅供參考)
7月2日,由北京市人民政府聯(lián)合工業(yè)和信息化部、國家網信辦、商務部、中國科協(xié)共同主辦的全球數(shù)字經濟大會在北京召開,其中包括人工智能高峰論壇。清華大學計算機系長聘教授、清華大學人工智能研究院副院長朱軍對人工智能目前發(fā)展態(tài)勢以及安全態(tài)勢做出相應介紹。
在他看來,未來需要關注多模態(tài)模型的發(fā)展,或許將成為未來更強的技術基座形態(tài)。在人工智能安全方面,正在探索中的第三代人工智能新的范式,或能將數(shù)據和知識有機融合在一起,發(fā)展更加安全可靠的人工智能框架。
“過去十年,人工智能最大的變化趨勢就是從小模型變成大模型。機器學習常用的模型的規(guī)模發(fā)生了巨大的變化,呈現(xiàn)指數(shù)型增長的趨勢。最受關注的典型成果就是ChatGPT大語言模型的橫空出世,解決過去機器學習模型從不好用到好用,能夠理解意圖和上下文等等,做出了超強的能力展示,現(xiàn)在成了人工智能最受關注、使用最廣泛的產品。”朱軍說道。
在他看來,ChatGPT的發(fā)展,可以追溯到1978年技術架構的突破和GPT系列的發(fā)展,去年年底Chat版本的發(fā)布,從根本上解決了意圖理解和可用性、好用性的問題。今年的發(fā)展速度會更快。大模型的三個關鍵技術分為別內容學習、思維鏈和指令學習,當然還有基于人類反饋的強化學習。
“從應用和理論上都需要我們關注多模態(tài)模型的發(fā)展,可能這些是未來更強的技術基座形態(tài),” 朱軍說道。在他看來,以大腦為參照,人是多模態(tài)感知的系統(tǒng),天然希望能夠處理多模態(tài)數(shù)據。很多復雜工程問題中,也會遇到圖像、文本、語音,甚至是觸覺等等各種模態(tài)的數(shù)據。
目前來看,文本的進展是相對最成熟的,其它模態(tài)也正快速發(fā)展,圖像、語音、視頻、3D,甚至包括分子結構等等,大家都在嘗試訓練和擁抱這種大規(guī)模預訓練模型?!?strong>有了多模態(tài)基座模型,應用場景是非常豐富的,除了文本以外,包括視頻、圖像、音頻等等生成任務都有可能受益,甚至啟發(fā)新的應用。”
大模型的迅速發(fā)展,如何理解安全問題?
“大模型之前的人工智能時代,我們已經發(fā)現(xiàn)人工智能本身具有所謂的內在安全。人工智能算法可能會被對象樣本攻擊,正常樣本加入少量對抗就會誤導識別結果。不管是數(shù)字世界還是物理世界,很多場景都存在這種情況?!敝燔娬f道。
在他看來,AIGC特別是ChatGPT出現(xiàn)以后,安全問題越來越嚴重?!按竽P捅旧砜赡軙rompt Injection有攻擊風險,加入少量編輯就會誤導。也存在數(shù)據泄露的風險,ChatGPT會把很多隱私數(shù)據上傳?,F(xiàn)在也有用AIGC技術提升詐騙手段,通過虛假內容實現(xiàn)黑產攻擊,包括代碼生成實現(xiàn)網絡攻擊。生成的虛假內容本身是不良的,存在誤導性和欺騙性?!?/p>
除此之外,算法本身是否存在政治偏見和數(shù)字鴻溝,數(shù)據采集的過程中會不會侵犯知識產權,這些在大模型時代都在變得越來越重要和受關注。
究竟有哪些思路和嘗試可以解決這些問題?
一是關注從基礎理論研究突破、提高內在安全性能的第三代人工智能。從人工智能基礎嘗試,針對深度學習、深度神經網絡,學術界一直在探索第三代人工智能新范式,希望能夠將數(shù)據和知識有機融合在一起,發(fā)展更加安全可靠的人工智能框架。其優(yōu)勢在于安全、可信、可靠和可拓展。
二是提升安全評測能力。主要關注對抗攻擊評測、角色扮演與誘導欺騙評測、混淆指令欺騙評測、標識性能評測、數(shù)據安全評測、倫理安全評測方面。
三是構建人工智能安全治理有效工具。如人工智能本身的安全平臺,安全評測、防御和整個態(tài)勢的評估,包括對抗樣本這些場景,可以通過平臺化的方式對人工智能的算法和服務進行評測。又如特殊專業(yè)的應用場景,專門針對對抗樣本檢測、偽造視頻檢測等進行防護。
Copyright © 2015-2022 太平洋科普網版權所有 備案號:豫ICP備2022016495號-17 聯(lián)系郵箱:93 96 74 66 9@qq.com