4 分鐘閱讀

科學、技術以及其中的所有元件造福好幾代的人類。根據定義,這是對新知識的探索 — 這怎麼可能會有惡的一面?實際情況是每種工具都有善惡兩面性,這完全取決於使用者。

在我們不斷模仿和破譯人類思維的過程中,人工智慧 (AI) 時代終於到來。ChatGPT 是文字型態的人工智慧機器人,這個最新工具由於先進的人工智慧而成為頭條新聞的焦點。從準確地修復編碼錯誤和建立 3D 動畫到產生烹飪食譜和甚至創作整首歌曲,ChatGPT 展示人工智慧的強大能力,可以開啟充滿豐富新能力的世界。

另一方面,許多人認為人工智慧是一把雙面刃。在網路安全領域,現在的專家能夠使用人工智慧支援的安全工具和產品,以最少的人為介入處理大量事件。不過在此同時,業餘駭客可以利用相同的技術來開發智慧惡意軟體程式並執行愈來愈高階的隱匿性攻擊。

新的聊天機器人有任何問題嗎?

自從 ChatGPT 於 11 月推出以來,世界各地的技術專家和評論員立即開始擔心人工智慧產生的內容工具將造成的影響,尤其是對網路安全性的影響。許多人都會提出的問題是:「人工智慧軟體是否會造成網路犯罪普及化?」

最近,在拉斯維加斯舉行的 Black Hat 和 Defcon 安全會議上,代表新加坡政府技術局的團隊展示人工智慧如何製作更好的網路釣魚電子郵件和相當有效的魚叉式網路釣魚訊息,比任何人類攻擊者的效用更大。

研究人員利用 OpenAI 的 GPT-3 平台和其他人工智慧即服務產品,重點研究根據同事的背景和自訂個性分析產生的網路釣魚電子郵件。最後,研究人員開發出管道,可以在攻擊預期目標之前對電子郵件進行整理和改進。讓他們感到驚訝的是這個平台也自動提供高度相關的詳細資訊,例如在指示為目標產生內容時提及新加坡法律。

ChatGPT 的製造商明確表示,人工智慧支援的工具提供內建控制項,可以挑戰不正確的前提並拒絕不適當的請求。雖然這套系統在技術上設有防護措施,能夠防止威脅行動者將這套系統用於直接惡意目的,不過,透過一些創意提示,能夠產生雖然像是「怪人」寫的信件但是近乎完美的網路釣魚電子郵件。

如何因應挑戰

根據澳大利亞網路安全中心 (ACSC) 的數據,澳大利亞企業自我報告遭受公司電子郵件入侵 (BEC) 攻擊的總損失從 2021 年的 8145 萬美元增加到 2022 年的 9800 萬美元。隨著暗網上價格低於 10 美元的工具、勒索軟體即服務模型以及 ChatGPT 等人工智慧化工具的出現,這種趨勢預計只會持續上升,這些工具會共同降低網路罪犯的進入門檻。

考量到更加智慧、技術更先進的駭客環境所帶來的急迫威脅,網路安全產業必須擁有同等的資源來因應這類人工智慧支援的入侵。不過從長遠來看,這個產業的願景不會是由人類威脅捕捉專家組成的龐大團隊零星地試圖透過猜測來因應人工智慧威脅。

從積極的一面來看,自發回應已廣泛用於在不需要人為介入的情況下來因應威脅,不過目前需要採取智慧化動作來因應這些不斷變化的威脅。雖然企業可以實施 ACSC 的八項基本緩解策略等實務來確保基本的網路安全性,不過這並無法保證免於遭受更新且更進階的威脅所影響。隨著人工智慧支援的攻擊成為日常生活的一部分,企業、政府和個人必須運用人工智慧和機器學習等新興技術來產生本身的自動化回應。

以更負責任且更合乎道德的方式使用人工智慧工具

在澳大利亞最近發生矚目的駭客攻擊之後,企業設法改善網路安全狀況的情況也就顯得不足為奇。新興技術的實施不再受到忽視,尤其是澳大利亞證券和投資委員會 (ASIC) 對未能優先考量網路安全性的公司董事進行更嚴格的審查。

不過,企業在因應人工智慧網路安全領域時面臨許多挑戰。從技術複雜度到人為因素,尤其是機器、相關人員和道德考量之間的平衡獲得相當大的注意。

制定公司政策對於在改善網路安全性的同時以符合道德的方式展開業務而言極為重要。我們需要建立有效的監管和法律框架,讓世人更加相信我們周圍實施的人工智慧技術會相當的安全可靠,同時為公正和永續的世界做出貢獻。因此,人工智慧與人類之間的微妙平衡將成為獲得成功網路安全形勢的關鍵因素,其中信任、透明度和究責會補強機器的優勢。


最初在 2023 年 1 月 18 日發表於 Australian Cybersecurity Magazine