3月5日消息,生成式人工智能技術的迭代突破,正在推動AI應用向多領域縱深拓展,比如深度偽造、自動駕駛、AI醫(yī)療診斷等。這些AI技術在為人們帶來新奇體驗、便利應用的同時,也可能會導致新的社會問題。
今年全國兩會,雷軍、周鴻祎、劉慶峰、李東生等多位互聯(lián)網科技大佬的建言中均提及了AI,但關注角度有所不同。下面我們就一起看看這些大佬都關注AI的哪一面。
AI深度偽造
雷軍:建議加強“AI換臉擬聲”違法侵權重災區(qū)治理
2024年10月,“雷軍AI配音”的相關視頻在短視頻平臺廣泛傳播。網傳視頻中,具有雷軍聲音特征的語音內容銳評假期堵車、游戲等話題,甚至還包含了“謾罵”,引發(fā)熱議,相關視頻的播放量很快便突破1億。
然而,這些配音大多并非雷軍本人“發(fā)聲”,而是短視頻平臺用戶使用AI工具模擬了雷軍聲音的音色,并根據(jù)設置文案內容生成了具有雷軍音色的音頻素材。
值得注意的是,除了惡搞雷軍的音頻內容,還有網友用AI制作張文宏醫(yī)生音視頻為自己帶貨,甚至有不法分子利用AI深度合成視頻進行詐騙。過去一年,AI深度合成音視頻侵權現(xiàn)象愈演愈烈。
今年兩會,全國人大代表、小米創(chuàng)辦人兼CEO雷軍建議加強“AI換臉擬聲”違法侵權重災區(qū)治理,具體包括3個方向:一是加快單行法立法進程,在安全與發(fā)展并重的基礎上提升立法位階;二是強化行業(yè)自律共治,壓實平臺企業(yè)等各方的責任和義務;三是加大普法宣傳的廣度力度,增強民眾的警惕性和鑒別力。
李東生:建議加強AI深度偽造欺詐管理
雷軍之外,全國人大代表、TCL創(chuàng)始人兼董事長李東生也建議加強AI深度偽造欺詐管理。
李東生認為,隨著生成式人工智能技術的發(fā)展,深度偽造技術也快速發(fā)展。要規(guī)范對于這一新興技術的不當利用行為,有必要要求深度合成服務提供商對人工智能生成的內容進行強制標識,減少惡意濫用,并厘清責任、對違法犯罪行為追責。近年來,我國相關立法雖有關注這一議題,但已出臺的規(guī)章制度尚不成體系,還不具備可操作的細則和明確的處罰標準。
對此,李東生建議:一是加快人工智能深度合成內容標識管理規(guī)章制度的出臺。二是明確對人工智能深度合成服務商未履行標識義務的懲罰制度,完善對深度合成內容服務提供商未按要求進行標識的行為界定、分類細則,以及相應的處罰標準。三是加強深度合成內容標識技術標準和發(fā)布的管理,出臺深度合成內容標識的技術標準,保證標識的有效性;對相關內容平臺出臺要求,用戶在發(fā)布深度合成的視頻、音頻等內容時,有義務對其進行標識。四是加強國際合作,形成人工智能生成合成內容的有效監(jiān)管。
AI幻覺問題
周鴻祎:建議對大模型“幻覺”給予適度包容
以DeepSeek為代表的大模型取得了“國運級科技成果”,不僅促進了大模型技術自主創(chuàng)新,也帶動了上下游產業(yè)協(xié)同發(fā)展,讓大模型加速走進百行千業(yè)。但包括DeepSeek在內的大模型都存在“幻覺”,偶爾會生成看似不合理、與事實不符的情況。
全國政協(xié)委員、360集團創(chuàng)始人周鴻祎認為,“幻覺”是一把雙刃劍,是大模型與生俱來的特點,不可消除,也決定其創(chuàng)造力和想象力,對于實現(xiàn)AGI(通用人工智能)極其重要。如果大模型沒有“幻覺”,就失去了想象力和創(chuàng)造力。并且越是能力強的模型,一般幻覺也越多。
周鴻祎指出,在科研領域,大模型的“幻覺”能“想象”新藥分子結構、蛋白質的結構等,為新研究指引方向。在醫(yī)療、法律、金融等對準確性要求高的領域,“幻覺”雖然可能出錯,但可以利用技術手段,如RAG(檢索增強生成)技術,通過比對專業(yè)知識庫、網絡實時信息等方式予以矯正。
為此,周鴻祎建議,借鑒“避風港原則”成功經驗,對大模型以及相關的產品和服務實施柔性監(jiān)管,適度包容大模型的“幻覺”,對于“幻覺”導致的一般性失誤,避免直接關停下架,給予企業(yè)自我糾正的機會,促進企業(yè)大膽創(chuàng)新、放手競爭,爭取讓更多企業(yè)“復制”DeepSeek的成功。
劉慶峰:建議加快構建自主可控大模型產業(yè)生態(tài),預防“幻覺數(shù)據(jù)”危害
中國互聯(lián)網絡信息中心(CNNIC)發(fā)布的《生成式人工智能應用發(fā)展報告(2024)》顯示,我國生成式人工智能產品的用戶規(guī)模已達2.49億人。
全國人大代表、科大訊飛董事長劉慶峰認為,生成式人工智能存在幻覺,特別是深度推理模型的邏輯自洽性提升,使得AI生成內容真假難辨。帶有算法偏差的虛假信息會被新一代AI系統(tǒng)循環(huán)學習,形成惡性循環(huán),影響公眾信任和社會穩(wěn)定。
針對預防大模型生成“幻覺數(shù)據(jù)”充斥互聯(lián)網帶來的危害,劉慶峰建議:
1、構建安全可信數(shù)據(jù)標簽體系,提升內容可靠性:建立安全可信、動態(tài)更新的信源和數(shù)據(jù)知識庫,對不同類型數(shù)據(jù)的可信度和危害程度建立標簽體系,降低人工智能幻覺出現(xiàn)概率,提升生成內容可靠性;
2、研發(fā)AIGC幻覺治理技術和平臺,定期清理幻覺數(shù)據(jù):研究幻覺自動分析的技術和軟件平臺,開展幻覺自動分析、AIGC深度鑒偽、虛假信息檢測、有害內容識別以及互聯(lián)網傳播溯源,由中央網信辦、國家數(shù)據(jù)局等部門定期清理幻覺數(shù)據(jù),為公眾提供AIGC幻覺信息檢測工具與服務。
如何應對AI搶飯碗?
劉慶峰:建議設立AI失業(yè)保險
世界經濟論壇《2025年未來就業(yè)報告》預測,未來五年內,新技術和產業(yè)變革將使全球約9200萬個崗位被替代,但也會新增1.7億個新崗位。
針對人們擔心的AI搶飯碗問題,全國人大代表、科大訊飛董事長劉慶峰建議:試點“AI失業(yè)保障專項保險”,設置6至12個月的失業(yè)緩沖期,采取“政府主導投保 + 商業(yè)機構運作”模式,為最易被AI沖擊的崗位建立專項保障基金;引導保險機構開發(fā)商業(yè)AI失業(yè)保險產品,為全社會提供更豐富的失業(yè)保障產品選擇。
他還表示,應該加強人工智能新職業(yè)的規(guī)劃與管理:推動 AI 新崗位的繁榮,系統(tǒng)性梳理 AI 時代產生的新崗位,強化崗位認證工作;鼓勵高校、職校緊跟趨勢,調整人才培養(yǎng)計劃和課程設置,科學指導職業(yè)生涯規(guī)劃;加強 AI 技能培訓,尤其要為低收入群體提供免費培訓機會。
AI應用安全
周鴻祎:建議用“以模制?!苯鉀Q大模型應用安全問題
DeepSeek-R1等先進模型帶來了前所未有的機遇,也同樣面臨無法通過傳統(tǒng)網絡安全手段解決的安全挑戰(zhàn)。全國政協(xié)委員、360集團創(chuàng)始人周鴻祎認為,大模型應用安全主要集中在基座模型、知識庫和智能體三個方面。
基座模型安全方面,由于大模型普遍存在的幻覺現(xiàn)象,特別是在生成文本時可能輸出與現(xiàn)實不符的信息,這在政策制定、法律條文解讀或商業(yè)決策等場景下可能導致誤導性后果。
知識庫安全方面,政府和企業(yè)核心數(shù)據(jù)資產存儲于內部知識庫中,若缺乏有效的安全控制措施,未授權用戶可能利用與大模型交互的機會竊取這些寶貴的數(shù)據(jù)資源。
智能體安全方面,智能體通常與政府、企業(yè)內部各類IT、郵件、控制系統(tǒng)相連,一旦遭受攻擊,可能會引發(fā)一系列連鎖反應,從發(fā)送有害郵件到中斷生產線運作,造成嚴重的物理損害。
周鴻祎介紹,針對上述挑戰(zhàn),360運用人工智能技術重塑安全格局,采用“以模制?!钡姆绞綉獙π码y題,依托安全大模型技術搭建起覆蓋“基座模型—知識庫—智能體”的全鏈路安全體系,護航政府與企業(yè)“數(shù)轉智改”。
為進一步強化這一防御體系,周鴻祎建議采取兩項措施:一是推動安全技術創(chuàng)新與成果轉化。建議相關部門及時出臺配套政策措施,鼓勵具備“安全+人工智能”完整解決方案的鏈主企業(yè),針對人工智能應用所涉及的基座模型、知識庫、智能體等安全問題,基于安全大模型技術開展研發(fā)工作,加速推動技術成果轉化,將安全要素深度嵌入人工智能應用全流程。
另一方面,組建產業(yè)聯(lián)盟,推廣安全產品。引導相關鏈主企業(yè)發(fā)揮牽頭作用,廣泛吸納產業(yè)鏈上下游企業(yè)、科研機構及終端用戶,組建人工智能大模型安全聯(lián)盟,在聯(lián)盟內部實現(xiàn)技術成果共享,共同開展產品及服務測試,待產品與服務成熟穩(wěn)定后,向更廣闊的市場加以推廣,助力大模型安全保障普及至千行百業(yè)。
雷軍:加快推進自動駕駛量產
雷軍造車三年,小米SU 7出道至今廣受歡迎。今年兩會,雷軍建議優(yōu)化新能源汽車號牌設計,同時建議加快推進自動駕駛量產。
雷軍認為,汽車產業(yè)已經邁入智能化的高級階段,智能駕駛(含輔助駕駛L1和L2級別、自動駕駛L3和L4級別)成為汽車工業(yè)的必爭高地,歐美等發(fā)達國家正在積極推進自動駕駛量產和法律保障。我國L3級自動駕駛正開展上路通行試點,L4級自動駕駛示范應用穩(wěn)步推進,自動駕駛汽車量產初具條件,亟需加強自動駕駛功能量產應用,培育和壯大新質生產力。
為此,雷軍建議:1.推進自動駕駛汽車大范圍測試驗證,加快量產商用進程;2.推動設立自動駕駛專屬保險,加強安全使用宣傳;3.加快出臺自動駕駛相關法律法規(guī),明確合法上路身份。
(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )