網(wǎng)件路由器設(shè)置網(wǎng)址蘇州百度搜索排名優(yōu)化
ChatGPT原理剖析
- 語(yǔ)言模型 == 文字接龍
- ChatGPT在測(cè)試階段是不聯(lián)網(wǎng)的。
ChatGPT背后的關(guān)鍵技術(shù):預(yù)訓(xùn)練(Pre-train)
- 又叫自監(jiān)督式學(xué)習(xí)(Self-supervised Learning),得到的模型叫做基石模型(Foundation Model)。在自監(jiān)督學(xué)習(xí)中,用一些方式“無(wú)痛”生成成對(duì)的學(xué)習(xí)資料。
- GPT1 -> GPT2 -> GPT3 (參數(shù)量增加,通過大量網(wǎng)絡(luò)資料學(xué)習(xí),這一過程稱為預(yù)訓(xùn)練),GPT -> ChatGPT (增加人類老師提供的資料學(xué)習(xí)),GPT到ChatGPT增加的繼續(xù)學(xué)習(xí)的過程就叫做 微調(diào) (finetune)。
預(yù)訓(xùn)練多有幫助呢?
- 在多種語(yǔ)言上做預(yù)訓(xùn)練后,只要教某一個(gè)語(yǔ)言的某一個(gè)任務(wù),自動(dòng)學(xué)會(huì)其他語(yǔ)言的同樣任務(wù)。
- 當(dāng)在104種語(yǔ)言上預(yù)訓(xùn)練,在英語(yǔ)數(shù)據(jù)上微調(diào)后在中文數(shù)據(jù)上測(cè)試的結(jié)果(78.8的F1值),和在中文數(shù)據(jù)上微調(diào)并在中文數(shù)據(jù)上測(cè)試的結(jié)果(78.1的F1值)相當(dāng)。
ChatGPT帶來的研究問題
- 1.如何精準(zhǔn)提出需求
- 2.如何更正錯(cuò)誤【Neural Editing】
- 3.偵測(cè)AI生成的物件
- 怎么用模型偵測(cè)一段文字是不是AI生成的
- 4.不小心泄露秘密?【Machine Unlearning】
對(duì)于大型語(yǔ)言模型的兩種不同期待 Finetune vs. Prompt
- 成為專才,對(duì)預(yù)訓(xùn)練模型做改造,加外掛和微調(diào)參數(shù)。
- 成為通才,機(jī)器要學(xué)會(huì)讀題目描述或者題目范例
- 題目敘述–Instruction Learning
- 范例–In-context Learning
- In-context Learning
- 給機(jī)器的范例的domain是很重要的;范例的數(shù)量并不需要很多,并不是通過范例進(jìn)行學(xué)習(xí),范例的作用只是喚醒模型的記憶;也就是說,語(yǔ)言模型本來就會(huì)做情感分析,只是需要被指出需要做情感任務(wù)。
- Instruction-tuning