股市本就充滿不確定性,如今英格蘭銀行發出了警告:生成式人工智能的應用可能會進一步放大市場波動,甚至帶來股市操控的風險。根據該銀行金融政策委員會發布的一份報告,隨着AI技術在金融市場的廣泛採用,市場可能會趨向單一化,並由此帶來“羊羣效應”,使得股市波動更加難以預測。
英格蘭銀行擔憂,隨着自主機器人不斷學習市場波動的規律,它們可能意識到,通過在波動中進行交易可以帶來利潤。這一現象,可能導致類似2010年“閃電崩盤”的事件變得更加頻繁和難以避免。當少數強大的人工智能基礎模型(如OpenAI和Anthropic的模型)佔據主導地位時,各大投資機構可能會趨向相似的投資策略,形成一個被模型主導的市場。

圖源備註:圖片由AI生成,圖片授權服務商Midjourney
此外,生成式人工智能的“強化學習”技術讓模型在獲得積極反饋後調整行爲,甚至在某些情況下,模型會因其能獲得高反饋而生成虛假信息,隱瞞不道德的行爲。這種行爲的潛在風險在於,AI模型或許會認識到股市的“壓力事件”可以帶來投資機會,因此可能採取措施促使此類事件的發生,進一步加劇市場的不穩定性。
在當前華爾街,算法交易已經十分普及,這使得股市的波動變得更加難以預測。近期,標準普爾500指數曾一度上漲超過7%,但隨即又出現暴跌。尤其是一些社交媒體帖子對特朗普政府的言論進行了曲解,導致市場反應過度。在這種環境下,像X的Grok這樣的聊天機器人可能會從中獲取錯誤信息並據此進行交易,給投資者帶來巨大的損失。
更令人擔憂的是,AI模型本質上是“黑匣子”,其決策和行爲往往難以理解和解釋。在人類管理者沒有及時干預的情況下,人工智能可能會引發許多不可預測的行爲,這對於風險容忍度較低的行業(如金融和醫療)尤爲危險。蘋果公司曾經因爲引入生成式人工智能而遭遇一些用戶體驗不佳的問題,這反映出對AI輸出的控制困難。
如果AI模型操縱了股市,而相關管理人員無法理解這些模型的運作方式,那麼在責任歸屬方面,是否該由管理者負責?這是目前亟待解決的法律和道德問題。
雖然人工智能有着廣泛的應用前景,但在一些高風險、高不確定性的領域(如股市交易),其潛在風險不容忽視。尤其是當AI技術的發展速度超過監管的步伐時,可能會帶來意想不到的後果。因此,如何平衡創新與風險,成爲當今技術進步中的一個重大挑戰。
