像ChatGPT所支持的大型語言模型在起草法律摘要、分析客戶評論的情緒或?qū)⑽臋n翻譯成不同語言等任務(wù)上表現(xiàn)出色。
這些機器學(xué)習(xí)模型通常僅使用自然語言處理信息和回答查詢,這使得它們難以執(zhí)行需要數(shù)字或符號推理的任務(wù)。
例如,大型語言模型可能能夠記住并背誦美國歷任總統(tǒng)及其生日的列表,但如果問“1950年后當(dāng)選的哪些美國總統(tǒng)出生在星期三?”,該模型可能會失敗(答案是吉米·卡特。)
麻省理工學(xué)院等機構(gòu)的研究人員提出了一項新技術(shù),使大型語言模型能夠通過生成程序來解決自然語言、數(shù)學(xué)和數(shù)據(jù)分析以及符號推理任務(wù)。
他們的方法稱為自然語言嵌入式程序(NLEP),涉及提示語言模型創(chuàng)建和執(zhí)行Python程序來解決用戶的查詢,然后將解決方案輸出為自然語言。
他們發(fā)現(xiàn),NLEP使大型語言模型能夠在各種推理任務(wù)上實現(xiàn)更高的準(zhǔn)確率。這種方法也是可推廣的,這意味著一個NLEP提示可以重復(fù)用于多個任務(wù)。
NLEP還提高了透明度,因為用戶可以檢查程序以準(zhǔn)確了解模型如何推理查詢,如果模型給出了錯誤的答案,則可以修復(fù)程序。
“我們希望人工智能能夠以透明和值得信賴的方式進(jìn)行復(fù)雜的推理。雖然還有很長的路要走,但我們已經(jīng)證明,在大型語言模型中結(jié)合編程和自然語言的能力,是邁向未來人們能夠完全理解和信任人工智能模型內(nèi)部發(fā)生的事情的一個非常好的潛在第一步,”麻省理工學(xué)院博士后、NLEP論文的共同主要作者HongyinLuo博士(2022年)表示。
與羅一起參與撰寫這篇論文的還有香港中文大學(xué)研究生張?zhí)烊A、北京大學(xué)本科生葛佳欣、麻省理工學(xué)院電子工程與計算機科學(xué)系助理教授、計算機科學(xué)與人工智能實驗室(CSAIL)成員YoonKim、CSAIL高級研究員兼口語系統(tǒng)小組負(fù)責(zé)人JamesGlass等。這項研究將在計算語言學(xué)協(xié)會北美分會的年度會議上發(fā)表。
使用程序解決問題
許多流行的大型語言模型的工作原理是,根據(jù)一些自然語言輸入預(yù)測下一個單詞或標(biāo)記。雖然GPT-4等模型可用于編寫程序,但它們將這些程序嵌入自然語言中,這可能會導(dǎo)致程序推理或結(jié)果出現(xiàn)錯誤。
麻省理工學(xué)院的研究人員在NLEP中采用了相反的方法。他們讓模型完全用Python代碼生成分步程序,然后在程序中嵌入必要的自然語言。
NLEP是一個包含四個步驟的問題解決模板。首先,模型調(diào)用解決任務(wù)所需的必要包或函數(shù)。第二步涉及導(dǎo)入任務(wù)所需知識的自然語言表示(例如美國總統(tǒng)生日列表)。對于第三步,模型實現(xiàn)一個計算答案的函數(shù)。最后一步,模型將結(jié)果輸出為一行自然語言,并根據(jù)需要自動進(jìn)行數(shù)據(jù)可視化。
“它就像一個數(shù)字計算器,只要程序正確,它就總能給出正確的計算結(jié)果,”羅說。
用戶可以輕松調(diào)查程序并直接修復(fù)代碼中的任何錯誤,而不需要重新運行整個模型來排除故障。
這種方法也比其他一些方法效率更高。如果用戶有許多類似的問題,他們可以生成一個核心程序,然后替換某些變量,而不需要重復(fù)運行模型。
為了促使模型生成NLEP,研究人員給了它一個編寫Python程序的總體指令,提供了兩個NLEP示例(一個是數(shù)學(xué),一個是自然語言)和一個測試問題。
“通常,當(dāng)人們進(jìn)行這種小樣本提示時,他們?nèi)匀恍枰獮槊宽椚蝿?wù)設(shè)計提示。我們發(fā)現(xiàn),我們可以為許多任務(wù)設(shè)置一個提示,因為它不是教法學(xué)碩士解決一個問題的提示,而是教法學(xué)碩士通過編寫程序解決許多問題的提示,”羅說。
麻省理工學(xué)院-IBM沃森人工智能實驗室首席科學(xué)家LeonidKarlinsky表示:“使用語言模型對代碼進(jìn)行推理,為工具使用、輸出驗證、對模型功能和思維方式的更有條理的理解等提供了許多機會。”
“這里沒有魔法”
在提示GPT-4解決一系列符號推理任務(wù)(例如跟蹤打亂的物體或玩24點游戲)以及指令跟蹤和文本分類任務(wù)時,NLEP的準(zhǔn)確率超過90%。研究人員發(fā)現(xiàn),NLEP的準(zhǔn)確率甚至比特定任務(wù)的提示方法高出30%。該方法還顯示出比開源LLM更好的性能。
除了提高大型語言模型的準(zhǔn)確性之外,NLEP還可以改善數(shù)據(jù)隱私。由于NLEP程序在本地運行,因此敏感的用戶數(shù)據(jù)無需發(fā)送到OpenAI或Google等公司進(jìn)行模型處理。
此外,NLEP可以使小型語言模型表現(xiàn)得更好,而無需為某項任務(wù)重新訓(xùn)練模型,這可能是一個昂貴的過程。
“這里沒有什么魔法。我們沒有更昂貴或更花哨的語言模型。我們所做的就是使用程序生成而不是自然語言生成,我們可以讓它的表現(xiàn)更好,”羅說。
然而,NLEP依賴于模型的程序生成能力,因此該技術(shù)對于在有限數(shù)據(jù)集上訓(xùn)練的較小模型效果不佳。未來,研究人員計劃研究使較小語言模型生成更有效的NLEP的方法。此外,他們還希望研究提示變化對NLEP的影響,以增強模型推理過程的穩(wěn)健性。
標(biāo)簽:
免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!