近日,一項由研究員納Naphtali Deutsch進行的調查引發了人們的關注。他通過掃描網絡發現,數百個開源的大型語言模型(LLM)構建服務器和幾十個向量數據庫正在泄露大量敏感信息。這些信息的泄露源於許多公司在急於整合人工智能(AI)到工作流程中時,往往忽視了相關工具的安全性。

黑客,網絡攻擊,寫代碼

圖源備註:圖片由AI生成,圖片授權服務商Midjourney

Flowise 是一款低代碼的工具,用戶可以藉此創建各種 LLM 應用,無論是客服機器人,還是數據生成和提取工具。儘管大多數 Flowise 服務器設置了密碼保護,但僅僅依靠密碼並不能確保安全。

Deutsch提到,早在今年,就有研究人員發現了 Flowise 的身份驗證繞過漏洞,只需將程序 API 端點的幾個字符大寫,便可以輕鬆觸發此漏洞。利用這個漏洞,Deutsch成功破解了438個 Flowise 服務器,結果發現其中存儲了 GitHub 訪問token、OpenAI API 密鑰、Flowise 密碼和 API 密鑰等敏感數據,甚至還有與 Flowise 應用相關的配置和提示信息。

除了 Flowise,Deutsch還發現大約30個向量數據庫沒有任何身份驗證檢查,這些數據庫中存儲了明顯敏感的信息,包括某工程服務公司的私人郵件、某時尚公司的文件、某工業設備公司的客戶個人信息和財務數據等。向量數據庫的泄露風險更大,因爲黑客不僅可以竊取數據,還能刪除或破壞數據,甚至植入惡意軟件,導致用戶在使用 AI 工具時受到影響。

爲了降低這些風險,Deutsch建議企業限制對所依賴的 AI 服務的訪問,監控和記錄與這些服務相關的活動,保護 LLM 應用傳輸的敏感數據,並在可能的情況下始終應用軟件更新。

他強調,隨着這些工具的普及,許多開發者並不具備足夠的安全知識來進行合理的設置,安全性常常滯後於技術的發展。

劃重點:

1. 🔒 數百個 LLM 和向量數據庫泄露敏感信息,企業安全形勢堪憂。

2. 💻 Flowise 工具存在身份驗證繞過漏洞,已被黑客利用破解多臺服務器。

3. 🛡️ 專家建議企業加強對 AI 服務的訪問控制,定期監控和更新安全措施。