百度怎么開戶做網(wǎng)站百度推廣平臺首頁
核心知識點腦圖如下:

1、第一講:課程介紹
要點1:

上圖展示了兩種大型語言模型(LLMs)的對比:基礎(chǔ)語言模型(Base LLM)和指令調(diào)整語言模型(Instruction Tuned LLM)。
基礎(chǔ)語言模型(Base LLM)
功能:基礎(chǔ)語言模型能夠預(yù)測下一個單詞,這種預(yù)測是基于文本訓(xùn)練數(shù)據(jù)。
例子:圖中提供了一個故事的開頭:“Once upon a time, there was a unicorn that lived in a magical forest with all her unicorn friends(中文釋義:從前,有一只獨角獸和她所有的獨角獸朋友住在魔法森林里)”,這展示了模型如何根據(jù)給定的文本繼續(xù)生成故事。問答能力:它能夠回答基礎(chǔ)的問題,例如“法國的首都是什么?”,但它可能會產(chǎn)生問題文本,如有害輸出,這些輸出與基礎(chǔ)語言模型的性質(zhì)有關(guān),因為它們僅基于預(yù)測下一個最可能的單詞,而不是遵循特定的指令。
指令調(diào)整語言模型(Instruction Tuned LLM)
功能:這種模型試圖遵循指令,它通過在指令上進(jìn)行微調(diào)(fine-tuning,周鴻祎大佬經(jīng)常講),并在嘗試遵循這些指令時進(jìn)行優(yōu)化。
微調(diào)方法:使用RLHF(Reinforcement Learning with Human Feedback,中文釋義:人類反饋強化學(xué)習(xí))進(jìn)行微調(diào),即結(jié)合強化學(xué)習(xí)和人類反饋。
三H原則:幫助(Helpful)、誠實(Honest)、無害(Harmless)。
例子:當(dāng)問到“法國的首都是什么?”時,指令調(diào)整的模型會更準(zhǔn)確地回答“法國的首都是巴黎”。
總結(jié)來說,圖中的主要區(qū)別在于基礎(chǔ)模型側(cè)重于文本數(shù)據(jù)的下一個詞預(yù)測,而指令調(diào)整模型則側(cè)重于理解和遵循指令,提供更準(zhǔn)確、更有用、更安全的輸出。
2、第二講:使用準(zhǔn)則
要點1:好提示詞的第一個原則——寫出清晰且準(zhǔn)確的提示

指令必須清晰的三個核心原因:
核心一——避免歧義:清晰的指令讓機器沒有猜測的空間,可以直接執(zhí)行。
核心二——提高效率:清晰的指令可以讓機器快速理解并采取行動,節(jié)約時間。
核心三——確保結(jié)果準(zhǔn)確:指令清晰可以確保機器提供的結(jié)果是我們所期待的。

要點2:好提示詞的第一個原則——給大模型思考的時間

要點2所說的“給大模型思考的時間”,其實是在指導(dǎo)我們?nèi)绾胃咝У嘏c大型語言模型(如我)進(jìn)行交互。
下面是三個核心要點的解讀:
(1)等待模型回應(yīng):
模型需要時間處理你的請求和生成回答,就像你向朋友提問后要等待他們思考并回答一樣。
(2)避免打斷:
在模型回答之前不要急于提出新問題,這就像不打斷別人說話,給對方完成表達(dá)的機會。
這個一般模型也不允許。
(3)逐步提問:
如果有復(fù)雜的問題,可以分步驟提問,讓模型逐一解決,就像解難題一樣,一步一個腳印來解答。
這是最核心的,大問題務(wù)必精準(zhǔn)拆解成小問題,且根據(jù)回復(fù)逐步調(diào)優(yōu)。
3、第三講:提示詞不是一步到位的,而通過反復(fù)迭代逐步完善的。

吳恩達(dá)老師“這幅圖展示了一個名為“迭代式提示開發(fā)”的循環(huán)流程圖,它代表一個反饋循環(huán),用于改進(jìn)和完善提示(可能是編程、數(shù)據(jù)輸入或任何需要精確指示的場合)的質(zhì)量。流程由四個主要部分組成:
1、Idea(想法): 這是流程的開始階段,你需要有一個初始想法或設(shè)計,這將成為你的起始點。
2、Implementation (code/data) Prompt(實現(xiàn)(代碼/數(shù)據(jù))提示): 根據(jù)想法,你會創(chuàng)建一個初步的提示,如果是編程領(lǐng)域,可能是編寫代碼或準(zhǔn)備數(shù)據(jù)輸入。
3、Experimental result(實驗結(jié)果): 使用你的提示進(jìn)行實驗后,你將獲得某些結(jié)果,這些結(jié)果可能會或不會符合你的預(yù)期。
4、Error Analysis(錯誤分析): 如果結(jié)果不符合預(yù)期,你需要進(jìn)行錯誤分析,查找為什么會出現(xiàn)這樣的結(jié)果,可能是提示不夠清晰、具體或存在邏輯錯誤。
這個過程是迭代的,意味著你會不斷重復(fù)這個循環(huán),每一次都根據(jù)之前的反饋來調(diào)整和改進(jìn)你的提示,直到實驗結(jié)果符合你的預(yù)期。
圖下方的“Prompt guidelines”列出了優(yōu)化提示時應(yīng)遵循的指導(dǎo)原則:
1、Be clear and specific(要清晰和具體): 提示需要有足夠的詳細(xì)信息,避免歧義——這點反復(fù)強調(diào)過了。
2、Analyze why result does not give desired output(分析為什么結(jié)果不符合預(yù)期輸出): 當(dāng)結(jié)果不如意時,深入分析原因(模型會分析,咱們也不要坐等,要結(jié)合經(jīng)驗進(jìn)行分析),理解導(dǎo)致結(jié)果偏差的因素。
3、Refine the idea and the prompt(改進(jìn)想法和提示): 根據(jù)分析結(jié)果調(diào)整你的想法和提示。
4、Repeat(重復(fù)): 不斷重復(fù)這一過程(反復(fù)迭代),每次都嘗試提高提示的有效性。
這個流程是設(shè)計思維和敏捷開發(fā)的典型,強調(diào)持續(xù)改進(jìn)和適應(yīng)性。
4、第四講:最興奮的功能——文本總結(jié)
為大段文本形成摘要,以便我們快速的獲取信息。
新版GPT4最多能讓用戶輸入3萬2千token(大概50頁英文文字長度,網(wǎng)上說法大約25000字)。
5、第五講:模型推理:
省去了早期開發(fā)需要自己訓(xùn)練模型的工作,現(xiàn)在一個API搞定!

6、第六講:格式轉(zhuǎn)化 Transforming

Html 轉(zhuǎn) JSON等各種轉(zhuǎn)換:原來咱們用復(fù)雜的正則,現(xiàn)在大模型API快速搞定。
校對寫的所有內(nèi)容:論文、評論、文稿等。
支持各種語言的翻譯
GPT4 的圖片轉(zhuǎn)文本,文本轉(zhuǎn)圖片功能也非常強大。
7、第7講:文本擴寫

Chatgpt可以作為頭腦風(fēng)暴的伙伴,基于我們的提示詞展開文本擴寫。
建議負(fù)責(zé)任的使用,比如:不要生成垃圾郵件。
可用于文檔助理,比如:郵件助理。
8、第8講:自定義聊天機器人

用途舉例:
AI 客服助理;
餐廳AI接單員
等等......
注意:角色的設(shè)定很重要。
9、小結(jié)

9.1 寫出好的提示詞的兩個核心要點
1、寫出清晰和具體指令的重要性
2、給予模型足夠的時間來“思考”。
9.2 迭代式提示開發(fā)
這是一種通過不斷優(yōu)化和細(xì)化提示來改進(jìn)模型響應(yīng)的方法。
9.3 模型的幾項能力
總結(jié)
推斷
轉(zhuǎn)換
擴展信息。
這些能力在構(gòu)建聊天機器人時尤為重要,它們使得機器人能夠處理各種任務(wù),從理解和回應(yīng)用戶輸入到生成新的內(nèi)容。

模型非常有趣,可以放心去玩!!——咱們就是得多用,才能知道怎么更好得使用用!
10、中英文字母視頻地址
https://www.bilibili.com/video/BV1s24y1F7eq