OpenAI“宮斗”大戲即將塵埃落定。
自首席執(zhí)行官Sam Altman突然被董事會宣布遭解雇、董事長兼總裁Greg Brockman辭職;緊接著OpenAI員工以辭職威脅董事會要求Altman回歸;再到OpenAI董事會更換成員、Altman回歸OpenAI。
表面上看,這似乎是一場針對一家獨領風騷的技術初創(chuàng)公司控制權的爭奪戰(zhàn),但從種種跡象來看,此次“宮斗”的導火索,更多應源自對AI未來發(fā)展理念的分歧:一派扛著“加速主義”旗幟,希望AI在技術精英的帶領下加速前進改造世界;另一邊則是以利他主義理論為根基、力求讓AI在人類控制下發(fā)展的保守派別。
從創(chuàng)造栩栩如生的藝術到如同真人般的精度模仿人類語言,生成式AI正在改寫創(chuàng)新和自動化的規(guī)則。
AI大模型訓練的高耗能、AI對語言情感和倫理道德的把握程度、AI對假消息和公眾輿論的操縱、生成式AI在人類創(chuàng)新創(chuàng)造中的角色……在生成式AI加速奔跑的今天,有些問題依然值得我們細細思考。
AI大模型成下一個
安全新戰(zhàn)場今年三月,三星電子剛剛在企業(yè)內(nèi)部引入ChatGPT服務不久,就發(fā)生了三起機密數(shù)據(jù)泄露事件。部分員工將涉及半導體生產(chǎn)的機密代碼與內(nèi)部會議信息輸入ChatGPT端口,導致這些敏感資料被上傳至美國服務器,極可能已經(jīng)泄漏。事件發(fā)生后,三星迅速采取措施約束員工使用ChatGPT的場景和行為,也引發(fā)了行業(yè)對于這類大模型技術帶來的數(shù)據(jù)隱私和安全問題的討論。
客觀而言,在互聯(lián)網(wǎng)時代,任何向云端上傳數(shù)據(jù)的行為都具有潛在的安全風險。云計算剛剛興起的時代,就有很多企業(yè)擔憂敏感數(shù)據(jù)被云服務商泄露,拒絕將其上傳至云端。
時至今日,仍有大批企業(yè)在本地存儲隱私數(shù)據(jù)來增強安全性,云服務商仍然沒有完全贏得企業(yè)的信任。
而生成式AI的熱潮則令這一問題雪上加霜。一方面,由于大模型訓練、運營所需的成本極為高昂,極少有企業(yè)能夠負擔巨大的投資而在本地建設自有大模型服務。
另一方面,由云服務商提供的大模型服務在訓練和交互時需要海量數(shù)據(jù),尤其是特定領域的數(shù)據(jù)。大模型掌握的領域數(shù)據(jù)越多,特別是與企業(yè)研發(fā)、運營相關的數(shù)據(jù)越多,輸出的效果往往越令人滿意。
例如,企業(yè)開發(fā)人員使用AI代碼輔助生成工具時,一般需要上傳企業(yè)已有的代碼庫,使大模型給出更精準的代碼預測結果;企業(yè)營銷人員將過往的營銷材料輸入大模型,就可以自動生成高質量的營銷內(nèi)容,提升工作效率。
為此,企業(yè)和研究機構往往會收集包括用戶生成內(nèi)容的文本、圖像等數(shù)據(jù),這些原始訓練數(shù)據(jù)中可能含有用戶的敏感隱私信息。
如果數(shù)據(jù)采集不當、存在偏見或標簽錯誤、數(shù)據(jù)被投毒,都有可能導致大模型產(chǎn)生錯誤輸出、存在歧視或其他負面影響,同時數(shù)據(jù)在應用的過程中,也要面臨數(shù)據(jù)泄露、隱私曝光等風險,這既存在法律風險,也會引發(fā)公眾對AI的信任危機。
另外,提供大模型服務的云廠商一般會同時服務眾多客戶,而大模型在獲得各個企業(yè)的數(shù)據(jù)后,如何將這些數(shù)據(jù)充分隔離在每個客戶的服務范圍之內(nèi),就成為了困擾云廠商與企業(yè)的一大難題。
一旦數(shù)據(jù)的隔離失敗,從甲客戶獲得的數(shù)據(jù)就可能被用在對乙客戶給出的交互回答中,造成數(shù)據(jù)泄露。
如果企業(yè)上傳的大量隱私機密數(shù)據(jù)未能得到充分保護,惡意攻擊者或者云廠商內(nèi)部的惡意人士就可能利用軟件漏洞或職權獲取這些信息,攫取不當利益的同時,也對企業(yè)造成了無可估量的傷害。
考慮到大模型所需的訓練和交互數(shù)據(jù)數(shù)量龐大,遠遠超過以往企業(yè)上傳到云端的規(guī)模,這種風險相比過去也有數(shù)量級的增長。
目前,生成式AI已經(jīng)展現(xiàn)前所未有的智能化水平,由此將占據(jù)企業(yè)的IT關鍵位置,而就此重要性帶來的受攻擊頻度,也將使得生成式AI成為云計算、大數(shù)據(jù)、物聯(lián)網(wǎng)、移動互聯(lián)網(wǎng)之后的一個全新的安全戰(zhàn)場。
與此同時,大模型技術也將會在多個方面幫助提升網(wǎng)絡安全運維效率,在更深層次改變網(wǎng)絡安全格局的基礎。
有些人士還認為,生成式AI將進一步擴大貧困差距,加深數(shù)字鴻溝。生成式AI作為新興的AI技術,需要基于大量的數(shù)據(jù)與巨大的計算能力,這就意味著生成式AI只能在技術先進的國家和地區(qū)普及開來,并被少數(shù)經(jīng)濟體所掌控。
數(shù)字貧困差距進一步擴大,科技弱勢地區(qū)的話語權被忽視,其潛在的風險就是發(fā)達經(jīng)濟體的價值觀廣泛傳播,數(shù)字鴻溝也會不可逆地加深。
用技術對抗技術用魔法打敗魔法
隨著大模型時代的到來,其強大能力也為安全防護技術的變革提供了新的思路?!坝肁I的力量來對抗AI”已經(jīng)成為一個熱點方向。
事實上,對抗攻防思路并不是模型安全的專屬。早在上個十年,面對種種安全威脅,人工智能領域就逐步形成了“以攻測防——以攻促防——攻防一體化”的安全理念,通過模擬各類攻擊場景,不斷探索模型和系統(tǒng)的弱點,以此推動算法和工程端的防御能力加強。
只不過,以往安全防護主要依賴機器學習算法模型,這需要大量專業(yè)數(shù)據(jù)知識積累,且面臨知識盲區(qū)和小樣本冷啟動不及時的問題。利用大模型技術,可以實現(xiàn)更智能化的安全防控。
當前,生成式AI面臨的安全問題可以分為三級。初級問題是技術攻擊問題,也就是網(wǎng)絡攻擊、漏洞攻擊、數(shù)據(jù)攻擊問題,特別是提供給大模型不好的數(shù)據(jù)或污染它的訓練數(shù)據(jù),可能會導致結果出錯。這類問題相對比較好解決。
比較難解決的是中級問題,主要涉及內(nèi)容安全。例如大模型可以成為人們很好的幫手,也能成為壞人的工具。它可以幫一個水平不怎么樣的黑客寫更好的攻擊代碼、詐騙郵件。
如何讓它的內(nèi)容更加可控?如何防止AI大模型不作惡?這已經(jīng)超越了技術范疇。盡管現(xiàn)在有人為大模型做了內(nèi)置的所謂“安全護欄”,但它很容易遭到注入攻擊或算法攻擊。
從高級問題來看,大模型可以把人類所有知識融會貫通,再來和人類做交流、做提示。但當AI的能力超越人類后,還能不能甘于做人類的工具,這些技術帶來的挑戰(zhàn)最終還要靠技術來解決,技術自身會不斷進化,不能因為未來還沒有發(fā)生的問題就不發(fā)展相關技術。
從產(chǎn)業(yè)界現(xiàn)狀來看,AI安全與否如何評測,目前尚缺乏一套易用和標準化的評測工具和規(guī)則。
這也是大模型防御中能夠補充的另一方面,通過大模型技術學習風險知識和標準規(guī)則來提升AI對于風險的認知理解能力,以實現(xiàn)用大模型對抗大模型來進行極速防御和快速冷啟動的目的。
面對大模型下的網(wǎng)絡安全挑戰(zhàn),需要企業(yè)、安全團隊和監(jiān)管機構等共同努力來應對。
首先,加強大模型的訓練和管理。通過采用更加有效的數(shù)據(jù)增強和處理技術,減少大模型的過擬合和梯度爆炸等問題,提高模型的魯棒性和可靠性。同時,對大模型的訓練和管理也需要加強監(jiān)管和審計,確保數(shù)據(jù)的隱私和安全。
其次,研發(fā)新型安全防御技術。針對大模型的攻擊手段不斷變化和更新,需要研發(fā)新型的安全防御技術來應對。例如,可以利用人工智能技術來檢測和防御惡意代碼和網(wǎng)絡釣魚攻擊等。
以文本安全為例,大模型可以基于安全標準規(guī)則、風險領域知識和歷史風險樣本進行訓練,提升模型對于風險標準和內(nèi)容的理解力,從而實現(xiàn)對風險檢測能力的提升。
也采用大模型生成能力結合安全知識圖譜,來構造攻擊樣本持續(xù)迭代優(yōu)化檢測模型。
第三,強化數(shù)據(jù)安全保護。除了要關注大模型在互聯(lián)網(wǎng)上的攻防對抗,大模型本身的安全和隱私問題同樣引發(fā)了擔憂。
針對大模型的訓練和使用過程中可能存在的數(shù)據(jù)安全問題,需要采取一系列的隱私保護技術。例如,使用同態(tài)加密、差分隱私、安全多方計算、模型水印和指紋等多種技術來保護數(shù)據(jù)的隱私和安全。
第四,加強監(jiān)管和法律保護。技術立法往往落后于技術發(fā)展的步伐,缺少法規(guī)和條例的引導和規(guī)制,越來越多使用生成式AI的公司發(fā)現(xiàn)其系統(tǒng)運行的安全性受到很大挑戰(zhàn)。
面對大模型下的網(wǎng)絡安全挑戰(zhàn),也需要監(jiān)管機構和法律機構加強管理和監(jiān)管。例如,政府監(jiān)管機構要通過政策立法對生成式AI的設計、演進進行有效引導、統(tǒng)籌管理。
制定的政策框架需要與各國的立法和監(jiān)管背景保持一致,并且要隨AI技術更迭而更新,不斷提高現(xiàn)有法規(guī)的適用度。在監(jiān)管的同時給予AI創(chuàng)新的自由度,協(xié)同創(chuàng)造出更高質量的內(nèi)容。
生成式AI是非常復雜的問題,倫理、數(shù)據(jù)、訓練等領域的復雜度都是前所未有的,是一個新領域,也是擺在所有人面前的一個命題。
從科技企業(yè)的發(fā)展史看,在新技術發(fā)展的前期,不同路線、理念的參與者往往能夠團結協(xié)作,共同為了科技普及而合作前進。
但當科技普及已經(jīng)發(fā)生,關于商業(yè)化、實現(xiàn)路徑的種種理念差異,卻可能走上不同的道路。在AI普及和深度應用的前夜里,或許,關于未來技術應該如何普及、如何監(jiān)管的理念與路徑之爭,才剛剛拉開帷幕。
面對未來的安全發(fā)展趨勢和挑戰(zhàn),企業(yè)更應該攜起手來,共同建立可度量的安全體系,為應對智能化時代的攻防新趨勢,打造內(nèi)在自適應的“安全免疫力”。