# Meta Llama 2 7B 架設 ( Windows ) >最後編輯日:2024. >硬體: >軟體: ## 第一步 下載 llama.cpp 1. 打開新的終端機 2. 切換至桌面 - ```cd desktop ``` 3. 下載 llama.cpp - ```git clone https://github.com/ggerganov/llama.cpp``` 4. 切換到```llama.cpp``` - ```cd llama.cpp``` 5. 建立環境 - ```LLAMA_METAL=1 make``` 6. 安裝附加套件 - ``` python3 -m pip install -r requirements.txt ``` - ```python3 -m pip install torch numpy sentencepiece``` > 下載 git 套件: > - ```winget install --id Git.Git -e --source winget``` > - 重啟終端機 ## 第二步 下載 Llama 本體 1. 打開新的終端機 2. 去 [Meta官網](https://llama.meta.com/llama-downloads) 填寫個人資料 3. 從 Meta 寄送的郵件獲取 URL 4. 切換至桌面 - ```cd desktop ``` 5. 下載```llama``` - ```git clone https://github.com/facebookresearch/llama``` 6. 切換至```llama``` - ```cd llama``` 7. 運行```download.sh``` - ```./download.sh``` >依次輸入 URL(一段網址)與 欲下載的版本  7. 關閉終端機 8. 將```llama```新出現的檔案/資料夾移入```desktop/llama.cpp/models``` >通常包含```tokenizer_checklist.chk``` ```tokenizer.model``` ```llama-2-7b``` ## 第三步 量化模型 1. 切到第一步開啟的終端機 2. 運行```convert.py```把模型轉換為 ```f16.gguf```,以減少記憶體使用和算力需求 - ```python3 convert.py models/llama-2-7b``` >原貌:```python3 convert.py folder_path_to_model``` 3. 量化成 q4_0 or q8_0 > 差別在 q4_0 速度較快,但損耗較多; q8_0 速度較慢,但損耗較少,也較吃記憶體( M1 8G 會顯示 ```status 5 ```記憶體不足 ) - ```./quantize ./models/llama-2-7b/ggml-model-f16.gguf ./models/llama-2-7b/ggml-model-q4_0.gguf q4_0 ``` >原貌:```./quantize model_path new_model_path q4_0``` 4. 運行模型 - ```./main -m models/llama-2-7b/ggml-model-q4_0.gguf -n 256 --repeat_penalty 1.0 --color -i -r "User:" -f prompts/chat-with-bob.txt``` >原貌:```./main -m path_to_model -n 256 --repeat_penalty 1.0 --color -i -r "User:" -f prompts/chat-with-bob.txt``` 5. 大功告成  ## 備註 1. 再次開啟步驟: 1. ```cd desktop``` 2. ```cd llama.cpp``` 3. ```./main -m models/llama-2-7b/ggml-model-q4_0.gguf -n 256 --repeat_penalty 1.0 --color -i -r "User:" -f prompts/chat-with-bob.txt``` 2. 其他模組安裝(例如:```llama-7b-chat```or```CodeLlama-7b``` )僅需將```llama-7b```全替換成```llama-7b-chat```or```CodeLlama-7b``` ## 延伸 - [加入 Taiwan-LLM](/AIOQT856T_6dz6gShxp-GQ)
×
Sign in
Email
Password
Forgot password
or
Sign in via Google
Sign in via Facebook
Sign in via X(Twitter)
Sign in via GitHub
Sign in via Dropbox
Sign in with Wallet
Wallet (
)
Connect another wallet
Continue with a different method
New to HackMD?
Sign up
By signing in, you agree to our
terms of service
.