在人工智能快速發展的今天,生成式AI雖然帶來了諸多便利,但其產生的虛假信息也成爲了一個不容忽視的問題。針對這一挑戰,科技巨頭微軟近日推出了一項名爲"Correction"的新工具,旨在修正AI生成內容中的虛假信息。
作爲微軟Azure AI內容安全API的一部分,"Correction"目前處於預覽階段。該工具能夠自動標記可能存在錯誤的文本,如錯誤引述的公司季度財報摘要,並將其與可信資料進行對比,以糾正這些錯誤。值得注意的是,這項技術適用於所有文本生成的AI模型,包括Meta的Llama和OpenAI的GPT-4。
微軟發言人表示,"Correction"通過結合小型語言模型和大型語言模型,確保生成的內容與真實文檔保持一致。他們希望這個新功能能夠幫助醫療等領域的開發者提高響應的準確性。

然而,專家們對此持謹慎態度。華盛頓大學博士生Os Keyes認爲,試圖消除生成AI的虛幻就像試圖從水中去掉氫一樣,這是技術運作的基本組成部分。事實上,文本生成模型之所以會產生虛假信息,是因爲它們實際上並不"知道"任何事情,只是基於訓練集進行猜測。一項研究發現,OpenAI的ChatGPT在回答醫療問題時錯誤率高達50%。
微軟的解決方案是通過一對交叉參考的"編輯"元模型來識別並修正這些虛假信息。一個分類模型負責尋找可能的錯誤、虛構或不相關的文本片段,如果檢測到這些問題,會引入第二個語言模型,嘗試根據特定的"基礎文檔"進行修正。
儘管微軟聲稱"Correction"可以顯著增強AI生成內容的可靠性和可信度,但專家們仍有疑慮。女王瑪麗大學研究員Mike Cook指出,即使"Correction"如宣傳所說那樣有效,也可能加劇AI的信任和可解釋性問題。該服務可能會讓用戶產生一種虛假的安全感,誤以爲模型的準確性比實際更高。
值得一提的是,微軟在推出"Correction"時也暗藏商業算計。雖然這項功能本身是免費的,但檢測虛假信息所需的"基礎文檔檢測"功能每月有使用限制,超出部分需要收費。
微軟顯然承受着證明其AI投資價值的壓力。今年第二季度,該公司在AI相關的資本支出和設備上花費了近190億美元,但迄今爲止,從AI中獲得的收入卻不多。最近,有華爾街分析師調低了微軟的股票評級,質疑其長期AI戰略的可行性。
準確性和虛假信息的潛在風險已成爲企業在試點AI工具時的最大擔憂之一。Cook總結道,如果這是一個正常的產品生命週期,生成AI仍然應該在學術研究和開發階段,繼續改進和理解其優缺點。然而,我們卻已經將其投放到多個行業中。
微軟的"Correction"工具無疑是一次解決AI虛假信息問題的嘗試,但它能否真正破解生成式AI的信任危機,仍有待時間的檢驗。在AI技術快速發展的同時,如何平衡創新與風險,將成爲整個行業面臨的重要課題。
