<th id="dfzpi"></th>
        <dd id="dfzpi"></dd><nav id="dfzpi"></nav>

        <span id="dfzpi"></span>
      1. <tbody id="dfzpi"><noscript id="dfzpi"></noscript></tbody>
      2. 首頁|必讀|視頻|專訪|運營|制造|監管|大數據|物聯網|量子|元宇宙|博客|特約記者
        手機|互聯網|IT|5G|光通信|人工智能|云計算|芯片|報告|智慧城市|移動互聯網|會展
        首頁 >> 人工智能 >> 正文

        對話院士鄔江興:如今的大模型,100%不安全且不可信! 丨 WeTalk

        2024年9月19日 09:42  新浪科技  

        當前,全球各大企業均在以前所未有的熱情擁抱AI,但與AI伴生的安全問題,正引發更多擔憂。

        近日,鄔江興告訴新浪財經《WeTalk》欄目,“不是90%的大模型不可信,而是100%的大模型都不安全、不可信”。他建議人們不要只相信單一大模型,而是“要相同的問題,多問幾個模型”。

        他指出,每一個模型都是相對可信,但都存在缺陷,“你要想它沒缺陷,這個是不科學的”。

        以下為《WeTalk》與鄔江興對話部分內容:

        “100%大模型不可信,不要信任何一個大模型”

        新浪財經:你們之前測試表明,90%的大模型都不可信任,現在這個結果有沒有一些改進了?可信度提升了嗎?

        鄔江興:不是90%不可信,是100%都是不安全的,它沒有絕對的安全,100%都是不可信的。

        它要通過必要多樣性去表達,通過相對可信,而不是去追求絕對可信,絕對可信是沒有的。所以每一個模型都是相對可信,都是存在缺陷,你要想它沒缺陷,這個是不科學的。但是我可以用這些帶有缺陷的模型,按照內生安全構造構成一個相對可信的環境,他得到的結論,就要比大多數模型可信得多。

        所以說以后人工智能應用的時候,你們千萬不要說我只用一個文心一言,用一個豆包等。把問題多問幾個模型,然后你自己來處理。當然,如果是內生安全的系統,我們自動可以來給你處理。

        一個人,兼聽則明,偏信則暗。道理是一樣,不要去信某一個模型,可以有多幾個模型,同一個問題向幾個模型一起問,然后他們里面共同的一部分是可信的,不同的部分你要判斷。

        “用AI解決AI安全問題,這是個偽命題”

        新浪財經:您之前提過AI存在“三不可”問題,那該如何讓AI更可用呢?

        鄔江興:AI運行不能去靠某一個大模型,不能是必要的關系,應該有多個大模型,然后讓他們按照內生安全的構造連接起來,有相對正確的工藝,有所謂的共識機制,讓我們可以來判斷。也就是當一個數據輸入時,多個模型因為存在共識機制,所以肯定不會辦指鹿為馬的事,如果有個模型真的出來指鹿為馬了,其他模型也可以判斷出它是指鹿為馬,不會讓我們以為這就是馬。       控制論的第一性原理叫必要多樣性,沒有必要多樣性就沒有穩定的控制,每一種單一的東西都可能是不完美的,哥德爾不完全性定理同樣指出,任意一個包含一階謂詞邏輯與初等數論的形式系統,既不能被證明為真也不能被證明為否,也就是說我們想用AI去解決AI的安全問題,都會是個偽命題。       我現在的解決方法是什么?我可以用多個AI模型,因為他們存在價值對齊,所以他不能胡說八道,各個模型中間會有很多多樣性和特殊性,因為利用了這些多樣性和特殊性,也就知道你攻擊了哪個模型,同時其他模型也不會受到影響。就是說你想一槍打多只鳥的可能性沒有了,這樣的話就極大地提高了應用系統給出結論的安全性。

        “閉源的單一模型,一定是不安全的”

        新浪財經:這是否也意味著,一些商業機構說自己的模型是閉源的,所以更先進,這其實是個偽命題呢?

        鄔江興:這一定是有問題的,單一性一定是有問題的,閉源帶來不了安全性,因為他如果遭到破壞,單一的破壞就可能造成全部破壞,而當我們說必要多樣性時,你能破壞A的時候,你不可能同時破壞B、C、D。

        物理世界的統一性和物質世界的多樣性是怎么表達的?他要求的是生物多樣性,也就是說某種生物可能會在某種災難后消失掉,但由于生物的必要多樣性,能保證整個地球生物的生態不會因為某個物種的消失而完蛋,但如果是一個同質化的物種,很可能在未來的演化和進化過程中,遭遇不測的時候就滅絕了。

        新浪財經:類似于群策群力、人多力量大?

        鄔江興:開源不光是群策群力,他還有多種多樣性。我們現在搞AI的人,總是想辦法把一個AI搞得安全,在理論上這是不成立的,沒有絕對安全的東西,只有相對安全。

        新浪財經:您之前提出了一個多樣動態異構冗余架構,這是您理念的具體載體嗎?

        鄔江興:這是一個設計結構,就像我們的可靠性系統中,它要求你設計成主備或者是動態備份和靜態備份,這個動態異構冗余是指你的一個信息系統或者一個大模型系統,你要把它設計成這樣的一個架構,來按照這個架構就能得到安全性,它現在是一個框架的形式。

        編 輯:章芳
        飛象網版權及免責聲明:
        1.本網刊載內容,凡注明來源為“飛象網”和“飛象原創”皆屬飛象網版權所有,未經允許禁止轉載、摘編及鏡像,違者必究。對于經過授權可以轉載,請必須保持轉載文章、圖像、音視頻的完整性,并完整標注作者信息和飛象網來源。
        2.凡注明“來源:XXXX”的作品,均轉載自其它媒體,在于傳播更多行業信息,并不代表本網贊同其觀點和對其真實性負責。
        3.如因作品內容、版權和其它問題,請在相關作品刊發之日起30日內與本網聯系,我們將第一時間予以處理。
        本站聯系電話為86-010-87765777,郵件后綴為cctime.com,冒充本站員工以任何其他聯系方式,進行的“內容核實”、“商務聯系”等行為,均不能代表本站。本站擁有對此聲明的最終解釋權。
        相關新聞              
         
        人物
        中國電信邵廣祿:面向AI大模型的智算集群及網絡的實踐和展望
        精彩專題
        CES 2024國際消費電子展
        2023年信息通信產業盤點暨頒獎禮
        飛象網2023年手機評選
        第24屆中國國際光電博覽會
        CCTIME推薦
        關于我們 | 廣告報價 | 聯系我們 | 隱私聲明 | 本站地圖
        CCTIME飛象網 CopyRight © 2007-2024 By CCTIME.COM
        京ICP備08004280號-1  電信與信息服務業務經營許可證080234號 京公網安備110105000771號
        公司名稱: 北京飛象互動文化傳媒有限公司
        未經書面許可,禁止轉載、摘編、復制、鏡像
        日韩Av中文字幕丆