rinna/bilingual-gpt-neox-4b-instruction-ppo
rinnaさんが公開しているbilingual-gpt-neox-4b-instruction-ppoのgguf変換版です。
他モデルはこちら
mmnga/rinna-bilingual-gpt-neox-4b-gguf
mmnga/rinna-bilingual-gpt-neox-4b-8k-gguf
mmnga/rinna-bilingual-gpt-neox-4b-instruction-ppo-gguf
mmnga/rinna-japanese-gpt-neox-3.6b-gguf
mmnga/rinna-japanese-gpt-neox-3.6b-instruction-ppo-gguf
注意:こちらはブランチで試用になります。llama.cpp本家にgptneoxが実装された時に、このggufファイルが使用できない可能性があります。
Usage (試用)
git clone --branch mmnga-dev https://github.com/mmnga/llama.cpp.git
cd llama.cpp
make -j
./main -m 'rinna-bilingual-gpt-neox-4b-instruction-ppo-q4_0.gguf' -n 128 -p 'ユーザー: 吾輩って猫ですか? システム: ' --top_p 0.9 --temp 0.7 --repeat-penalty 1.1
CUBLAS
LLAMA_CUBLAS=1 make -j
./main -m 'rinna-bilingual-gpt-neox-4b-instruction-ppo-q4_0.gguf' -n 128 -p 'ユーザー: 吾輩って猫ですか? システム: ' -ngl 32
従来のCPU実行
git clone --branch mmnga-dev https://github.com/mmnga/llama.cpp.git
cd llama.cpp
make -j gptneox
./gptneox -m 'rinna-bilingual-gpt-neox-4b-instruction-ppo-q4_0.gguf' -n 128 -p 'ユーザー: 吾輩って猫ですか? システム: '