国产亚洲精品福利在线无卡一,国产精久久一区二区三区,亚洲精品无码国模,精品久久久久久无码专区不卡

當(dāng)前位置: 首頁 > news >正文

重慶提供行業(yè)網(wǎng)站建站報價seo營銷論文

重慶提供行業(yè)網(wǎng)站建站報價,seo營銷論文,代做網(wǎng)站修改維護,wordpress 游戲 模板下載在Windows 10上部署ChatGLM2-6B:掌握信息時代的智能對話 硬件環(huán)境ChatGLM2-6B的量化模型最低GPU配置說明準(zhǔn)備工作ChatGLM2-6B安裝部署ChatGLM2-6B運行模式解決問題總結(jié) 隨著當(dāng)代科技的快速發(fā)展,我們進(jìn)入了一個數(shù)字化時代,其中信息以前所未有的…

在Windows 10上部署ChatGLM2-6B:掌握信息時代的智能對話

    • 硬件環(huán)境
    • ChatGLM2-6B的量化模型最低GPU配置說明
    • 準(zhǔn)備工作
    • ChatGLM2-6B安裝部署
    • ChatGLM2-6B運行模式
    • 解決問題
    • 總結(jié)

隨著當(dāng)代科技的快速發(fā)展,我們進(jìn)入了一個數(shù)字化時代,其中信息以前所未有的速度傳播。在這個信息爆炸的時代,我們不僅面臨著巨大的機遇,還面臨著挑戰(zhàn)。為了更好地應(yīng)對和充分利用這一趨勢,我們需要掌握一些關(guān)鍵技能和工具。本文將向您介紹如何在Windows 10專業(yè)版22H2 x64操作系統(tǒng)上部署ChatGLM2-6B,這是一個強大的自然語言處理模型,用于智能對話。

本文面向的操作系統(tǒng)為 window10 專業(yè)版 22H2 x64,基于GPU的運算

硬件環(huán)境

名稱參數(shù)
PCHP Elite Tower 880 G9
CPU16G
GPUNVIDIA RTX3060
處理器 12th Gen Intel? Core?i7-12700 2.10GHz
操作系統(tǒng)window 10 專業(yè)版 22H2 x64

ChatGLM2-6B的量化模型最低GPU配置說明

名稱參數(shù)顯存要求
ChatGLM2-6BFP1613G
ChatGLM2-6BINT46G
ChatGLM2-6B-32KFP1620G
ChatGLM2-6B-32KINT413G

注意:如果僅使用CPU部署,則ChatGLM2-6B的量化模型最低CPU 32G

準(zhǔn)備工作

在部署ChatGLM2-6B之前,您需要進(jìn)行一些準(zhǔn)備工作

  1. 安裝Git和Git LFS: 您可以從Git官方網(wǎng)站下載Git,并在安裝時務(wù)必選擇安裝Git LFS選項,以支持大型文件的版本控制。
# window版Git安裝時注意勾選git LFS選項即可
# Linux系統(tǒng)在安裝完Git后,需額外安裝git LFS
# 驗證git是否正常: 出現(xiàn)版本信息為正常
git --version
# 驗證git lfs是否正常:出現(xiàn)Git LFS initalized為正常
git lfs install
  1. 安裝CUDA: CUDA是NVIDIA的并行計算平臺,用于加速深度學(xué)習(xí)任務(wù)。您需要確保安裝了與您的NVIDIA顯卡驅(qū)動程序兼容的CUDA版本【CUDA下載地址】
# 查看NVIDIA CUDA version 和 Driver Version,一定要注意相關(guān)版本信息
nvidia-smi
# 在下載頁面選擇相關(guān)版本和信息后,下載安裝包進(jìn)行安裝即可

在這里插入圖片描述
在這里插入圖片描述

  1. 安裝Python【下載地址】: 安裝Python,建議使用Python 3.10.10版本,并在安裝時勾選將Python添加到系統(tǒng)變量PATH中。

注意:無需下載最新版本,本文選用python v3.10.10
更據(jù)安裝包進(jìn)行即可,注意勾選將python添加至系統(tǒng)變量PATH

  1. 安裝PyTorch【下載地址】: 根據(jù)您的CUDA版本選擇合適的PyTorch版本,并使用pip安裝。確保PyTorch與CUDA版本兼容。
# 注意pytorch的版本,保證其和CUDA版本兼容
# 選擇stable版,其余更據(jù)自己系統(tǒng)和情況選擇,本文使用CUDA 11.8為最新版本(雖然CUDA版本為12.2,但是其支持向下兼容)
# 復(fù)制紅框內(nèi)容,在命令行中進(jìn)行安裝,等待完成
# 驗證pytorch是否正常:進(jìn)入命令行或PowerShell
python
>>> import torch
>>> print(torch.cuda.is_available())
>>> True
# 返回True即為正常
>>> quit()

在這里插入圖片描述

ChatGLM2-6B安裝部署

  1. 下載倉庫代碼: 使用Git克隆ChatGLM2-6B倉庫并安裝依賴。
git clone https://github.com/THUDM/ChatGLM2-6B.git
cd ChatGLM2-6B
pip install -r requirements.txt
  1. 下載ChatGLM2-6B模型: 在項目目錄下創(chuàng)建一個名為“model”的文件夾,并下載ChatGLM2-6B的模型文件。
mkdir model && cd model
git clone https://huggingface.co/THUDM/chatglm2-6b
git clone https://huggingface.co/THUDM/chatglm2-6b-int4
git clone https://huggingface.co/THUDM/chatglm2-6b-32k
git clone https://huggingface.co/THUDM/chatglm2-6b-32k-int4

請確保您下載了標(biāo)記為LFS(Large File Storage)的文件,以獲取完整的模型文件。

ChatGLM2-6B運行模式

在部署ChatGLM2-6B時,您可以選擇不同的運行模式,包括Gradio網(wǎng)頁模式、Streamlit網(wǎng)頁模式、命令行模式和API模式。以>下是每種模式的簡要說明:


Gradio網(wǎng)頁模式

  1. 準(zhǔn)備工作
# 進(jìn)入項目目錄
cd ChatGLM2-6B
#  復(fù)制一份web_demo.py
copy web_demo.py web_demo_bak.py

2.模型參數(shù)調(diào)整

tokenizer = AutoTokenizer.from_pretrained("model\\chatglm2-6b", trust_remote_code=True)
model = AutoModel.from_pretrained("model\\chatglm2-6b", trust_remote_code=True).cuda()

在這里插入圖片描述

3.服務(wù)參數(shù)調(diào)整

# demo.queue().launch(share=False, inbrowser=True)
# concurrency_count: 表示可以同時使用網(wǎng)頁的人數(shù),超過就需要排隊等候
# server_name: 開啟局域網(wǎng)訪問
# server_port: 指定端口訪問
demo.queue(concurrency_count=5,
).launch(share=False, inbrowser=True, server_name="0.0.0.0", server_port=8080)
  1. 啟動
python web_demo.py

在這里插入圖片描述


Streamlit網(wǎng)頁

# 同Gradio配置類似,進(jìn)行調(diào)整web_demo2.py
# 啟動
streamlit run web_demo2.py
# 此命令會開啟局域網(wǎng)服務(wù),端口:8501

在這里插入圖片描述


CLI模式

# 配置一致,調(diào)整cli_demo.py
# 啟動
python cli_demo.py
# 命令行中輸入只是并回車即可生成回復(fù),輸入clear:清空對話歷史;輸入stop:終止程序

API模式

# 安裝fastapi uvicorn依賴
pip install fastapi uvicorn
# 配置api.py
python api.py
# 補充:可設(shè)置ip和端口
# api.py
...
uvicorn.run(app, host='x.x.x.x', port=8000, workers=1)

訪問接口: http://x.x.x.x:8000/; 請求方式:POST

在這里插入圖片描述


特別說明: 如果顯存不足,可使用量化方式加載模型

# int4
model = AutoModel.from_pretrained("THUDM/chatglm2-6b", trust_remote_code=True).quantize(4).cuda()
# int8
model = AutoModel.from_pretrained("THUDM/chatglm2-6b", trust_remote_code=True).quantize(8).cuda()

解決問題

在部署過程中,可能會遇到一些問題。以下是一些常見問題和解決方法:


運行web_demo.py報錯:AssertionError:Torch not compiled with CUDA enabled(torch和CUDA版本不匹配)

# 首先檢查cuda能否使用
python -c "import torch; print(torch.cuda.is_availabled())"
# 返回False, 說明torch版本與CUDA不匹配
# 使用指令 nvidia-smi查看CUDA版本,然后到pytorch官方網(wǎng)站下載相應(yīng)的CUDA安裝
# 先卸載原torch
pip uninstall torch
# 安裝指定CUDA版本的torch
pip install --pre torch --index-url https://download.pytorch.org/whl/nightly/cu121

gcc不是內(nèi)部或外部命令

安裝TDM-GCC,注意勾選 openmp 【TDM-GCC下載】

總結(jié)

通過按照以上步驟進(jìn)行操作,您將能夠成功在Windows 10上部署ChatGLM2-6B,從而掌握信息時代的智能對話能力。這將為您提供一個有趣而強大的工具,用于與ChatGLM2-6B進(jìn)行智能對話,并深入了解自然語言處理的潛力。希望本文能幫助您充分利用信息時代的機遇,同時也能夠解決可能出現(xiàn)的問題。

http://aloenet.com.cn/news/41572.html

相關(guān)文章:

  • office做的網(wǎng)站短視頻排名seo
  • 網(wǎng)站設(shè)計代碼案例長尾關(guān)鍵詞查詢
  • 個人直播網(wǎng)站怎么做山西疫情最新情況
  • 中文域名網(wǎng)站騙局湖南網(wǎng)站推廣
  • 做選擇網(wǎng)站手機網(wǎng)站建設(shè)平臺
  • 通遼做網(wǎng)站通過seo來賺錢百度seo培訓(xùn)
  • 專業(yè)網(wǎng)站制作公司四川seo關(guān)鍵詞排名優(yōu)化軟件怎么選
  • wordpress中文標(biāo)簽云廣州灰色優(yōu)化網(wǎng)絡(luò)公司
  • 李滄做網(wǎng)站公司seo排名快速刷
  • 沙漠風(fēng)網(wǎng)站開發(fā)怎樣溫州seo優(yōu)化
  • 南寧做網(wǎng)站設(shè)計方案微商軟文范例
  • 黃石網(wǎng)站設(shè)計制作今日疫情最新情況
  • 分銷seo實戰(zhàn)培訓(xùn)教程
  • 臨西網(wǎng)站建設(shè)google收錄提交入口
  • 天河企業(yè)網(wǎng)站建設(shè)青島網(wǎng)站建設(shè)有限公司
  • 群暉wordpress中文鄭州網(wǎng)站關(guān)鍵詞優(yōu)化公司哪家好
  • 深圳市龍華區(qū)房價萬能優(yōu)化大師下載
  • 東營網(wǎng)站建設(shè)收益高恩城seo的網(wǎng)站
  • 做淘寶的網(wǎng)站企業(yè)網(wǎng)站營銷的優(yōu)缺點
  • 唐山設(shè)計網(wǎng)站公司達(dá)內(nèi)教育
  • 明星做av網(wǎng)站百度郵箱注冊入口
  • 廣州市企業(yè)網(wǎng)站建設(shè)企業(yè)網(wǎng)絡(luò)推廣都是收費
  • 學(xué)校網(wǎng)站怎么做推廣千博企業(yè)網(wǎng)站管理系統(tǒng)
  • 鄭州移動網(wǎng)站建設(shè)sem和seo有什么區(qū)別
  • 三門峽市湖濱區(qū)建設(shè)局網(wǎng)站巨量算數(shù)數(shù)據(jù)分析
  • 免費網(wǎng)站收錄入口百度云搜索引擎入口官網(wǎng)
  • 網(wǎng)站開發(fā)通常叫什么部門如何做市場推廣方案
  • 自己開加工廠怎么找訂單東莞seo優(yōu)化團隊
  • vr軟件開發(fā)需要學(xué)什么優(yōu)化推廣網(wǎng)站淄博
  • 南京溧水城市建設(shè)集團網(wǎng)站跨境電商網(wǎng)站開發(fā)