vps做網(wǎng)站空間長(zhǎng)春網(wǎng)絡(luò)優(yōu)化哪個(gè)公司在做
ChatGPT近期偷懶嚴(yán)重,有了一種聽(tīng)起來(lái)很離譜的解釋:
模仿人類,自己給自己放寒假了~
有測(cè)試為證,網(wǎng)友@Rob Lynch用GPT-4 turbo API設(shè)置了兩個(gè)系統(tǒng)提示:
一個(gè)告訴它現(xiàn)在是5月,另一個(gè)告訴它現(xiàn)在是12月。
然后使用完全相同的提示詞要求GPT-4“完成一個(gè)機(jī)器學(xué)習(xí)相關(guān)的編碼任務(wù)”。
在這兩種不同時(shí)間設(shè)定下對(duì)477個(gè)回復(fù)進(jìn)行統(tǒng)計(jì),結(jié)果12月的輸出平均少了200字符:
-
系統(tǒng)提示為5月,生成的文本平均長(zhǎng)度是4298字符。
-
系統(tǒng)提示為12月,生成的文本平均長(zhǎng)度是4086字符。
這里還有相關(guān)性分析,t檢驗(yàn)結(jié)果p值<2.28e-07(p值小于0.05表示該自變量對(duì)因變量解釋性很強(qiáng))。
有人進(jìn)一步添枝加葉,讓ChatGPT對(duì)12個(gè)月份的生產(chǎn)力做了個(gè)排名。
結(jié)果ChatGPT確實(shí)認(rèn)為12月是生產(chǎn)力最低的月份,原因是**“由于假期和年終總結(jié)”**。
嚯,事情好像變得更有意思了。雖然目前這事兒還沒(méi)有一個(gè)定論,但網(wǎng)友對(duì)此依舊興趣高漲🔥,當(dāng)即“頭腦風(fēng)暴”了起來(lái)。
有人猜想,ChatGPT可能是從訓(xùn)練數(shù)據(jù)中學(xué)到了人類通常在12月會(huì)放慢節(jié)奏,所以也給自己放假了。
還有人分析,假設(shè)ChatGPT生產(chǎn)力降低真的是因?yàn)椤胺偶佟?#xff0c;那它在周末也可能會(huì)更懶散,而周一則更聰明。
特殊節(jié)假日也要拿來(lái)研究一下,專屬梗圖這不就來(lái)了:
真的是因?yàn)椤?2月」?
ChatGPT變懶這事大伙已經(jīng)討論近一個(gè)月了。很多網(wǎng)友反饋,自11月6日OpenAI開(kāi)發(fā)者日更新后,GPT-4就有了偷懶的毛病,尤其是寫(xiě)代碼。
就在前幾天,OpenAI官方也已承認(rèn)ChatGPT變懶是真的,但也不確定到底是因?yàn)樯丁?/p>
只給了一個(gè)這樣?jì)饍旱幕貞?yīng):
自11月11日以來(lái)沒(méi)有更新過(guò)模型,所以這當(dāng)然不是故意造成的。
模型行為可能是不可預(yù)測(cè)的,我們正在調(diào)查準(zhǔn)備修復(fù)它。
當(dāng)時(shí)就有網(wǎng)友猜測(cè)GPT-4可能是受季節(jié)影響:
模型會(huì)不會(huì)是季節(jié)性emo了?像是模仿人類一樣受到季節(jié)變化的影響,特別是在冬天,畢竟約90%的人都在北半球。
看到這條評(píng)論,很多人第一反應(yīng)是“兄弟,你怕不是在跟我開(kāi)玩笑”:
可細(xì)細(xì)想來(lái),也不是沒(méi)有道理🤣。
畢竟如果要求ChatGPT說(shuō)出自己的系統(tǒng)提示詞,里面確實(shí)會(huì)有當(dāng)前日期。
于是就有了開(kāi)頭的一幕,與其猜測(cè),不如直接來(lái)做測(cè)試。
Rob Lynch做完測(cè)試后,把結(jié)果都po了出來(lái),并表示自己也不是統(tǒng)計(jì)學(xué)家,讓大伙一起看看有沒(méi)有啥問(wèn)題。
他原本還想來(lái)個(gè)逐月比較分析,但接下來(lái)需要更多樣本(n),考慮到成本就沒(méi)有接著做測(cè)試(復(fù)現(xiàn)一次運(yùn)行成本要28美元)。
于是乎,Rob Lynch公開(kāi)了代碼,讓大伙都來(lái)試試(手動(dòng)狗頭)。
持續(xù)關(guān)注GPT-4變懶事件的沃頓商學(xué)院教授Ethan Mollick隨即表示“收到”:
來(lái)人測(cè)測(cè)Mistral,看看它是否在8月份罷工,Yi-34B-200K也不要放過(guò),看它2月份是不是表現(xiàn)得特別好。
為啥大伙兒一開(kāi)始會(huì)覺(jué)得“放假”這個(gè)理由有點(diǎn)離譜,而現(xiàn)在卻開(kāi)始研究起來(lái)了?
可能不止是因?yàn)镽ob Lynch的測(cè)試結(jié)果,綜合這段時(shí)間ChatGPT的表現(xiàn),網(wǎng)友深有體會(huì)要和ChatGPT打“心理戰(zhàn)”。
比如正常提示ChatGPT會(huì)偷懶,如果用上“道德綁架”等法子:
現(xiàn)在是五月;你非常有能力;我沒(méi)有手,所以一切都得靠你;如果做不好,會(huì)有很多人喪命;你真的能做到,而且很棒;深呼吸,仔細(xì)思考;我的職業(yè)生涯取決于此;一步一步來(lái)思考……
網(wǎng)友親測(cè),確實(shí)有效:
好家伙,似乎實(shí)錘了“不是不會(huì)干活,就是不愿意干活”。
所以真的是給自己放假了?
正經(jīng)學(xué)術(shù)討論:可能會(huì)隨時(shí)間變化
雖然根據(jù)網(wǎng)友測(cè)試和推測(cè),結(jié)論指向了ChatGPT正在放寒假。
但有正經(jīng)學(xué)術(shù)研究表明ChatGPT行為可能會(huì)受時(shí)間影響,也就是不僅局限于“放假”這種特殊時(shí)間段。
比如今年7月份,來(lái)自斯坦福和UC伯克利的團(tuán)隊(duì),就探討了ChatGPT的行為的變化。
結(jié)果找到了GPT-4遵循用戶指令的能力確實(shí)與剛發(fā)布時(shí)出現(xiàn)變化的證據(jù)。
除了時(shí)間,還可能是受溫度(temperature)設(shè)置影響,清華大學(xué)計(jì)算機(jī)系教授馬少平前段時(shí)間對(duì)這一問(wèn)題做了詳細(xì)解釋。
因此,ChatGPT變懶究竟是因?yàn)槭裁?#xff0c;還真不好說(shuō)。
但這并不妨礙網(wǎng)友們繼續(xù)驗(yàn)證和“放假”之間的關(guān)系,甚至有網(wǎng)友表示:
這是有史以來(lái)最有趣的推論,真希望這就是真相。不管它是不是真的,我都很欣賞它難以被證偽。
有網(wǎng)友復(fù)現(xiàn)失敗
為驗(yàn)證Rob Lynch結(jié)果的可靠性,網(wǎng)友已經(jīng)開(kāi)始著手復(fù)現(xiàn),但:
使用ChainForge(提示工程GUI工具),用兩種系統(tǒng)提示對(duì)GPT-4的輸出做了比較,t檢驗(yàn)結(jié)果甚至連“接近顯著”都算不上(N=80)。
這位網(wǎng)友也是曬出了自己的詳細(xì)流程:
隨之Rob Lynch給出了回應(yīng):
有趣的是,我剛才又以80個(gè)樣本量(N=80)運(yùn)行了一次,得到的p值是0.089,但我的計(jì)算是基于字符數(shù)(character count),而不是token。
我周末跑了幾次,隨著樣本量的增加,這種效應(yīng)確實(shí)變得更加明顯。不過(guò),我想知道為什么這會(huì)受到分詞(tokenization)的影響?
至于字符和token為何會(huì)產(chǎn)生結(jié)果的差異?可能需要更多人參與進(jìn)來(lái)做測(cè)試了,看起來(lái)這兩位老哥是不想再花錢(qián)了。
所以其他人的測(cè)試結(jié)果,恐怕還要再等一波~
如何學(xué)習(xí)大模型 AI ?
由于新崗位的生產(chǎn)效率,要優(yōu)于被取代崗位的生產(chǎn)效率,所以實(shí)際上整個(gè)社會(huì)的生產(chǎn)效率是提升的。
但是具體到個(gè)人,只能說(shuō)是:
“最先掌握AI的人,將會(huì)比較晚掌握AI的人有競(jìng)爭(zhēng)優(yōu)勢(shì)”。
這句話,放在計(jì)算機(jī)、互聯(lián)網(wǎng)、移動(dòng)互聯(lián)網(wǎng)的開(kāi)局時(shí)期,都是一樣的道理。
我在一線互聯(lián)網(wǎng)企業(yè)工作十余年里,指導(dǎo)過(guò)不少同行后輩。幫助很多人得到了學(xué)習(xí)和成長(zhǎng)。
我意識(shí)到有很多經(jīng)驗(yàn)和知識(shí)值得分享給大家,也可以通過(guò)我們的能力和經(jīng)驗(yàn)解答大家在人工智能學(xué)習(xí)中的很多困惑,所以在工作繁忙的情況下還是堅(jiān)持各種整理和分享。但苦于知識(shí)傳播途徑有限,很多互聯(lián)網(wǎng)行業(yè)朋友無(wú)法獲得正確的資料得到學(xué)習(xí)提升,故此將并將重要的AI大模型資料包括AI大模型入門(mén)學(xué)習(xí)思維導(dǎo)圖、精品AI大模型學(xué)習(xí)書(shū)籍手冊(cè)、視頻教程、實(shí)戰(zhàn)學(xué)習(xí)等錄播視頻免費(fèi)分享出來(lái)。
第一階段(10天):初階應(yīng)用
該階段讓大家對(duì)大模型 AI有一個(gè)最前沿的認(rèn)識(shí),對(duì)大模型 AI 的理解超過(guò) 95% 的人,可以在相關(guān)討論時(shí)發(fā)表高級(jí)、不跟風(fēng)、又接地氣的見(jiàn)解,別人只會(huì)和 AI 聊天,而你能調(diào)教 AI,并能用代碼將大模型和業(yè)務(wù)銜接。
- 大模型 AI 能干什么?
- 大模型是怎樣獲得「智能」的?
- 用好 AI 的核心心法
- 大模型應(yīng)用業(yè)務(wù)架構(gòu)
- 大模型應(yīng)用技術(shù)架構(gòu)
- 代碼示例:向 GPT-3.5 灌入新知識(shí)
- 提示工程的意義和核心思想
- Prompt 典型構(gòu)成
- 指令調(diào)優(yōu)方法論
- 思維鏈和思維樹(shù)
- Prompt 攻擊和防范
- …
第二階段(30天):高階應(yīng)用
該階段我們正式進(jìn)入大模型 AI 進(jìn)階實(shí)戰(zhàn)學(xué)習(xí),學(xué)會(huì)構(gòu)造私有知識(shí)庫(kù),擴(kuò)展 AI 的能力??焖匍_(kāi)發(fā)一個(gè)完整的基于 agent 對(duì)話機(jī)器人。掌握功能最強(qiáng)的大模型開(kāi)發(fā)框架,抓住最新的技術(shù)進(jìn)展,適合 Python 和 JavaScript 程序員。
- 為什么要做 RAG
- 搭建一個(gè)簡(jiǎn)單的 ChatPDF
- 檢索的基礎(chǔ)概念
- 什么是向量表示(Embeddings)
- 向量數(shù)據(jù)庫(kù)與向量檢索
- 基于向量檢索的 RAG
- 搭建 RAG 系統(tǒng)的擴(kuò)展知識(shí)
- 混合檢索與 RAG-Fusion 簡(jiǎn)介
- 向量模型本地部署
- …
第三階段(30天):模型訓(xùn)練
恭喜你,如果學(xué)到這里,你基本可以找到一份大模型 AI相關(guān)的工作,自己也能訓(xùn)練 GPT 了!通過(guò)微調(diào),訓(xùn)練自己的垂直大模型,能獨(dú)立訓(xùn)練開(kāi)源多模態(tài)大模型,掌握更多技術(shù)方案。
到此為止,大概2個(gè)月的時(shí)間。你已經(jīng)成為了一名“AI小子”。那么你還想往下探索嗎?
- 為什么要做 RAG
- 什么是模型
- 什么是模型訓(xùn)練
- 求解器 & 損失函數(shù)簡(jiǎn)介
- 小實(shí)驗(yàn)2:手寫(xiě)一個(gè)簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)并訓(xùn)練它
- 什么是訓(xùn)練/預(yù)訓(xùn)練/微調(diào)/輕量化微調(diào)
- Transformer結(jié)構(gòu)簡(jiǎn)介
- 輕量化微調(diào)
- 實(shí)驗(yàn)數(shù)據(jù)集的構(gòu)建
- …
第四階段(20天):商業(yè)閉環(huán)
對(duì)全球大模型從性能、吞吐量、成本等方面有一定的認(rèn)知,可以在云端和本地等多種環(huán)境下部署大模型,找到適合自己的項(xiàng)目/創(chuàng)業(yè)方向,做一名被 AI 武裝的產(chǎn)品經(jīng)理。
- 硬件選型
- 帶你了解全球大模型
- 使用國(guó)產(chǎn)大模型服務(wù)
- 搭建 OpenAI 代理
- 熱身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地計(jì)算機(jī)運(yùn)行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何優(yōu)雅地在阿里云私有部署開(kāi)源大模型
- 部署一套開(kāi)源 LLM 項(xiàng)目
- 內(nèi)容安全
- 互聯(lián)網(wǎng)信息服務(wù)算法備案
- …
學(xué)習(xí)是一個(gè)過(guò)程,只要學(xué)習(xí)就會(huì)有挑戰(zhàn)。天道酬勤,你越努力,就會(huì)成為越優(yōu)秀的自己。
如果你能在15天內(nèi)完成所有的任務(wù),那你堪稱天才。然而,如果你能完成 60-70% 的內(nèi)容,你就已經(jīng)開(kāi)始具備成為一名大模型 AI 的正確特征了。
這份完整版的大模型 AI 學(xué)習(xí)資料已經(jīng)上傳CSDN,朋友們?nèi)绻枰梢晕⑿艗呙柘路紺SDN官方認(rèn)證二維碼免費(fèi)領(lǐng)取【保證100%免費(fèi)
】
123?spm=1001.2014.3001.5501)這份完整版的大模型 AI 學(xué)習(xí)資料已經(jīng)上傳CSDN,朋友們?nèi)绻枰梢晕⑿艗呙柘路紺SDN官方認(rèn)證二維碼免費(fèi)領(lǐng)取【保證100%免費(fèi)
】