wordpress小程序教程免費網(wǎng)站seo
人工智能經(jīng)常胡言亂語,微軟現(xiàn)在說它有辦法解決這個問題,但我們有理由對此持懷疑態(tài)度。微軟今天發(fā)布了一項名為"更正"(Correction)的服務,它可以自動修改人工智能生成的與事實不符的文本。Correction 首先會標記出可能存在錯誤的文本–例如,公司季度財報電話會議的摘要可能存在錯誤的引文–然后通過將文本與事實來源(如文字記錄)進行比較來進行事實核查。
作為微軟 Azure AI 內(nèi)容安全 API 的一部分,Correction 可與任何文本生成 AI 模型一起使用,包括 Meta 的Llama和 OpenAI 的GPT-4o。
"校正由一個利用小型語言模型和大型語言模型的新流程提供支持,以便使輸出與基礎文檔保持一致,"微軟發(fā)言人表示?!拔覀兿M@項新功能能為醫(yī)學等領域的生成式人工智能構建者和用戶提供支持,在這些領域,應用開發(fā)者認為響應的準確性非常重要。”
今年夏天,Google在其人工智能開發(fā)平臺 Vertex AI 中推出了一項類似功能,讓客戶可以通過使用第三方提供商的數(shù)據(jù)、自己的數(shù)據(jù)集或Google搜索來"磨合"模型。
但專家提醒,這些接地方法并不能從根本上解決幻覺問題。華盛頓大學研究新興科技倫理影響的博士候選人奧斯-凱耶斯(Os Keyes)說:“試圖從生成式人工智能中消除幻覺,就像試圖從水中消除氫氣一樣不切實際,因為幻覺本身就是技術運作的一個重要組成部分?!?/p>
文本生成模型會產(chǎn)生幻覺,因為它們實際上什么都不"知道"。它們是一種統(tǒng)計系統(tǒng),能識別一系列單詞中的模式,并根據(jù)它們所訓練的無數(shù)實例預測下一個單詞。
由此可見,模型的回答并不是答案,而只是預測如果問題出現(xiàn)在訓練集中會如何回答。因此,模型往往會對真相玩弄于股掌之間。一項研究發(fā)現(xiàn),OpenAI 的ChatGPT有一半的時間會弄錯醫(yī)療問題。
微軟的解決方案是一對交叉引用、類似于文案編輯器的元模型,旨在突出和改寫幻覺。
分類器模型會查找人工智能生成的文本中可能存在的錯誤、捏造或不相關的片段(幻覺)。如果檢測到幻覺,分類器就會引入第二個模型,即語言模型,試圖根據(jù)指定的"基礎文件"糾正幻覺。
"通過幫助應用程序開發(fā)人員減少用戶不滿和潛在的聲譽風險,修正可以大大提高人工智能生成內(nèi)容的可靠性和可信度,"微軟發(fā)言人說。“需要注意的是,接地性檢測并不能解決’準確性’問題,但有助于使人工智能的生成輸出與接地文件保持一致。”
凱耶斯對此表示懷疑?!斑@可能會減少一些問題,但也會產(chǎn)生新的問題。畢竟,Correction的幻覺檢測庫估計也能產(chǎn)生幻覺?!?/p>
在被問及有關 Correction 模型的背景介紹時,該發(fā)言人指出,微軟研究團隊最近發(fā)表了一篇論文,描述了這些模型的預生產(chǎn)架構。但該論文忽略了一些關鍵細節(jié),比如使用了哪些數(shù)據(jù)集來訓練模型。
瑪麗皇后大學專門研究人工智能的研究員邁克-庫克(Mike Cook)認為,即使"Correction"能像宣傳的那樣發(fā)揮作用,它也有可能加劇人工智能的信任和可解釋性問題。這項服務可能會捕捉到一些錯誤,但也可能讓用戶陷入虛假的安全感–以為模型比實際情況更真實。
他說:“微軟與 OpenAI 和Google一樣,都造成了這樣一個問題,即在模型經(jīng)常出錯的場景中依賴模型。微軟現(xiàn)在所做的是在更高層次上重蹈覆轍。比方說,這讓我們從 90% 的安全性提高到了 99% 的安全性–問題其實并不在那 9%。它永遠存在于我們尚未發(fā)現(xiàn)的那 1%的錯誤中?!?/p>
庫克補充說,微軟捆綁"修正"功能還有商業(yè)考量,該功能本身是免費的,但每月最多只能免費提供 5000 條"文本記錄"。之后,每 1000 條文本記錄需支付 38 美分。
微軟無疑面臨著向客戶和股東證明其人工智能值得投資的壓力。僅在第二季度,這家科技巨頭就在資本支出和設備方面投入了近 190 億美元,其中大部分與人工智能有關。然而,該公司尚未從人工智能中獲得可觀的收入。本周,一位華爾街分析師下調(diào)了該公司的股票評級,理由是對其長期人工智能戰(zhàn)略存有疑慮。
據(jù)《The Information》的一篇文章稱,由于性能和成本問題,許多早期采用者已經(jīng)暫停部署微軟的旗艦生成式人工智能平臺–Microsoft 365 Copilot。據(jù)報道,對于一個使用 Copilot 進行 Microsoft Teams 會議的客戶來說,人工智能發(fā)明了與會者,并暗示通話的主題實際上從未討論過。
畢馬威會計師事務所(KPMG)的一項民意調(diào)查顯示,在試用人工智能工具時,準確性和可能出現(xiàn)的幻覺是企業(yè)目前最擔心的問題。
庫克說:“如果這是一個正常的產(chǎn)品生命周期,那么生成式人工智能仍將處于學術研發(fā)階段,并在不斷改進和了解其優(yōu)缺點。相反,我們已經(jīng)把它部署到了十幾個行業(yè)。微軟和其他公司已經(jīng)把所有人都裝上了他們的發(fā)動機,并決定在前往目的地的途中建造起落架和降落傘?!?/p>
感謝大家花時間閱讀我的文章,你們的支持是我不斷前進的動力。期望未來能為大家?guī)砀嘤袃r值的內(nèi)容,請多多關注我的動態(tài)!