新智元報道
來源:學術頭條
作者:庫珀
【新智元導讀】近期爆火的 AI 聊天機器人 ChatGPT,以及文生圖模型 DallE 2、Stable Diffusion 等,讓生成式人工智能(generative AI)成功出圈。然而,技術的背后,也暗藏了一些不容忽視的風險。對安全團隊而言,ChatGPT 和生成式人工智能究竟是福還是禍?
最近,普華永道的分析師們對國外科技媒體 VentureBeat 分享了關于生成式人工智能和 ChatGPT 等工具將如何影響威脅形勢以及防御者將出現哪些用例的看法。
他們認為,雖然人工智能生成惡意代碼和釣魚郵件的能力給企業(yè)帶來了新的挑戰(zhàn),但也為一系列防御性用例打開了大門,如威脅檢測、補救指導,以及保護 Kubernetes 和云環(huán)境等。
總的來說,分析師們樂觀地認為,從長遠來看,防御性用例將上升,以打擊人工智能的惡意使用。
以下是 11 個關于生成式人工智能在未來將如何影響網絡安全的預測。
1. 惡意使用人工智能
當涉及到我們可以利用人工智能的方式時,我們正處于一個拐點,這種范式轉變影響著每一個人和每一件事。當人工智能掌握在公民和消費者手中時,偉大的事情可以發(fā)生。
與此同時,它可以被惡意的威脅者用于邪惡的目的,如惡意軟件和復雜的網絡釣魚郵件。
鑒于人工智能的未來能力和潛力的許多未知數,組織開發(fā)強大的程序來建立抵御網絡攻擊的彈性是至關重要的。
還需要有以社會價值觀為基礎的監(jiān)管,規(guī)定這種技術的使用要符合道德。同時,我們需要成為這一工具的“聰明”用戶,并考慮需要哪些保障措施,以使人工智能在提供最大價值的同時將風險降到最低。
2. 需要保護人工智能的訓練和輸出
現在,生成式人工智能已經具備了可以幫助企業(yè)轉型的能力,對于領導者來說,與對如何駕馭日益增長的安全和隱私考慮有深刻理解的公司合作,是非常重要的。
有兩方面原因。首先,公司必須保護人工智能的訓練,因為他們從微調模型中獲得的獨特知識將對他們如何經營業(yè)務、提供更好的產品和服務,以及與員工、客戶和生態(tài)系統(tǒng)接觸至關重要。
其次,公司還必須保護他們從生成式人工智能解決方案中獲得的提示和反應,因為它們反映了公司的客戶和員工正在利用該技術做什么。
3. 制定生成式人工智能使用政策
當你考慮使用你自己的內容、文件和資產進一步訓練(微調)生成式人工智能模型,以便它可以在你的(行業(yè)/專業(yè))背景下對你的業(yè)務的獨特能力進行操作時,許多有趣的商業(yè)用例就出現了。通過這種方式,企業(yè)可以用他們獨特的知識產權和知識來擴展生成式人工智能的工作方式。
這就是安全和隱私變得重要的地方。對于一個企業(yè)來說,你促使生成式人工智能產生內容的方式應該是你企業(yè)的隱私。幸運的是,大多數生成式人工智能平臺從一開始就考慮到了這一點,其設計是為了實現提示、輸出和微調內容的安全和隱私。
然而,現在所有用戶都明白這一點。所以,任何企業(yè)都必須為使用生成式人工智能制定政策,以避免機密和私人數據進入公共系統(tǒng),并在企業(yè)內部為生成式人工智能建立安全和可靠的環(huán)境。
4. 現代化的安全審計
生成式人工智能很可能在審計工作方面催生創(chuàng)新。復雜的生成式人工智能有能力創(chuàng)建考慮到某些情況的回應,同時以簡單、易懂的語言編寫。
這項技術所提供的是一個獲取信息和指導的單點,同時還支持文件自動化和分析數據以回應特定的查詢--而且效率很高。這是一個雙贏的結果。
不難看出,這種能力可以為我們的員工提供更好的體驗,進而也為我們的客戶提供更好的體驗。
5. 更加關注數據衛(wèi)生和評價偏見
任何輸入人工智能系統(tǒng)的數據都有可能被盜或被濫用的風險。首先,確定輸入系統(tǒng)的適當數據,將有助于減少在攻擊中丟失機密和私人信息的風險。
此外,重要的是進行適當的數據收集,以制定詳細和有針對性的提示,并將其輸入系統(tǒng),這樣你就可以獲得更有價值的輸出。
一旦你有了你的產出,就需要檢查系統(tǒng)內是否有任何固有的偏見。在這個過程中,請一個多元化的專業(yè)團隊來幫助評估任何偏見。
與編碼或腳本的解決方案不同,生成式人工智能是基于經過訓練的模型,因此它們給出的回應不是 100% 可預測的。要使生成式人工智能給出最值得信賴的輸出,需要其背后的技術和利用它的人之間的合作。
6. 跟上不斷擴大的風險并掌握基礎知識
既然生成式人工智能正在被廣泛采用,實施強大的安全措施是防止威脅者的必要條件。這項技術的能力使網絡犯罪分子有可能創(chuàng)建深度偽造圖像,更容易執(zhí)行惡意軟件和勒索軟件攻擊,公司需要為這些挑戰(zhàn)做好準備。
最有效的網絡措施繼續(xù)受到最少的關注:通過保持基本的網絡衛(wèi)生和壓縮龐大的遺留系統(tǒng),公司可以減少網絡犯罪分子的攻擊面。
整合運營環(huán)境可以降低成本,使公司能夠最大限度地提高效率,并專注于改善其網絡安全措施。
7. 創(chuàng)造新的工作和責任
總的來說,我建議公司考慮擁抱生成式人工智能,而不是建立防火墻和抵制--但要有適當的保障措施和風險緩解措施。生成式人工智能在如何完成工作方面有一些非常有趣的潛力;它實際上可以幫助釋放出人類用于分析和創(chuàng)造的時間。
生成式人工智能的出現有可能導致與技術本身相關的新工作和責任--并產生確保人工智能被道德地和負責任地使用的責任。
它還將要求使用這些信息的員工發(fā)展一種新的技能--評估和識別所創(chuàng)建的內容是否準確的能力。
就像計算器被用于簡單的數學相關任務一樣,在日常使用生成式人工智能的過程中,仍有許多人類技能需要應用,如批判性思維和有目的的定制--以釋放生成式人工智能的全部力量。
因此,雖然從表面上看,它似乎在自動化人工任務的能力方面構成了威脅,但它也可以釋放創(chuàng)造力,幫助人們在工作中表現出色。
8. 利用人工智能來優(yōu)化網絡投資
即使在經濟不確定的情況下,公司也沒有積極尋求在 2023 年減少網絡安全支出;然而,CISO 必須考慮他們的投資決策是否更具經濟性。
他們正面臨著少花錢多辦事的壓力,導致他們投資于用自動化替代方案取代過度手工的風險預防和緩解過程的技術。
雖然生成式人工智能并不完美,但它非?焖、高效和連貫,技能也在迅速提高。通過實施正確的風險技術--如為更大的風險覆蓋面和檢測而設計的機器學習機制--組織可以節(jié)省資金、時間和人員,并且能夠更好地駕馭和抵御未來的任何不確定性。
9. 加強威脅情報
雖然釋放生成式人工智能能力的公司專注于保護,以防止惡意軟件、錯誤信息或虛假信息的創(chuàng)建和傳播,但我們需要假設生成式人工智能將被不良行為者用于這些目的,并提前采取行動。
在 2023 年,我們期待看到威脅情報和其他防御能力的進一步增強,以利用生成式人工智能做對社會有益的事。生成式人工智能將允許在效率和實時信任決策方面取得根本性的進步。例如,對系統(tǒng)和信息的訪問形成實時結論,其置信度比目前部署的訪問和身份模型高很多。
可以肯定的是,生成式人工智能將對每個行業(yè)和該行業(yè)中的公司的運作方式產生深遠的影響;普華永道認為,這些進步將繼續(xù)由人類主導和技術驅動,2023 年將出現最快速的進步,為未來幾十年確定方向。
10. 威脅預防和管理合規(guī)風險
隨著威脅形勢的不斷發(fā)展,衛(wèi)生部門--這個個人信息泛濫的行業(yè)--繼續(xù)發(fā)現自己處于威脅者的交叉瞄準區(qū)。
衛(wèi)生行業(yè)的高管們正在增加他們的網絡預算,并投資于自動化技術,這些技術不僅可以幫助防止網絡攻擊,還可以管理合規(guī)性風險,更好地保護病人和工作人員的數據,降低醫(yī)療成本,減少低效率流程等。
隨著生成式人工智能的不斷發(fā)展,確保醫(yī)療系統(tǒng)安全的相關風險和機會也在不斷增加,這強調了醫(yī)療行業(yè)在接受這種新技術時建立其網絡防御和復原力的重要性。
11. 實施數字信任戰(zhàn)略
生成式人工智能等技術的創(chuàng)新速度,加上不斷發(fā)展的“拼湊”監(jiān)管和對機構信任的侵蝕,需要一個更具戰(zhàn)略性的方法。
通過追求數字信任戰(zhàn)略,企業(yè)可以更好地協(xié)調傳統(tǒng)上孤立的功能,如網絡安全、隱私和數據治理,使他們能夠預測風險,同時也為企業(yè)釋放價值。
其核心是,數字信任框架確定了超越合規(guī)性的解決方案--而是優(yōu)先考慮組織和客戶之間的信任和價值交換。
參考資料:
https://venturebeat.com/security/pwc-highlights-11-chatgpt-and-generative-ai-security-trends-to-watch-in-2023/