在這個AI滿天飛的時代,我們對智能助手的要求可是越來越高了。不光要能說會道,還得能看圖識字,最好再來點逗趣幽默。但是,你有沒有想過,如果給AI一個自相矛盾的任務,它會不會當場"宕機"呢?比如,你讓它把大象塞進冰箱,還不許大象變冷,它會不會傻眼?
爲了測試這些AI的"抗壓能力",一羣研究者玩起了"大冒險"。他們搞了一個叫Self-Contradictory Instructions(SCI)的測試,簡直就是AI界的"死亡挑戰"。這個測試包含了20,000個自相矛盾的指令,涵蓋了語言和視覺兩大領域。比如,給你看一張貓咪照片,卻讓你描述這隻"狗"。這不是爲難人嗎?哦不,是爲難AI。
爲了讓這個"死亡挑戰"更加刺激,研究者們還開發了一個叫AutoCreate的自動數據集創建框架。這個框架就像是一個不知疲倦的出題老師,能自動生成海量的、高質量的、多樣化的問題。這下AI可有得忙了。
面對這些讓人摸不着頭腦的指令,AI該如何應對呢?研究者們給AI打了一針"清醒劑",叫做Cognitive Awakening Prompting(CaP)。這個方法就像是給AI裝了一個"矛盾探測器",讓它在處理這些指令時能夠更加機智。
研究者們對一些當紅的大型多模態模型進行了測試,結果顯示,這些AI在面對自相矛盾的指令時,表現得像個傻傻的大學新生。但是,當使用了CaP方法後,它們的表現就像是突然開竅了一樣,成績大幅提升。
這項研究不僅給我們提供了一個新奇的AI測試方法,還爲AI的未來發展指明瞭方向。雖然現在的AI在處理自相矛盾指令方面還像個笨拙的孩子,但隨着技術的進步,我們有理由相信,未來的AI將會變得更加聰明,更懂得如何應對這個充滿矛盾的複雜世界。
也許有一天,當你讓AI把大象塞進冰箱時,它會機智地回答:"好的,我會把大象變成冰雕,這樣它就既在冰箱裏,又不會變冷了。"
論文地址:https://arxiv.org/pdf/2408.01091
項目頁:https://selfcontradiction.github.io/