アカウント名:
パスワード:
https://llama.meta.com/llama3/ [meta.com]OllamaとOpen WebUIで簡単に家庭内ChatGPTモドキができるYO!#性能出すにはそれなりに費用が掛かるがLLM界隈ではザッカーバーグが救世主みたいになってて笑える
オフラインでも使えるようにするには・高性能GPU・電源ユニット
おいくらぐらいなのか・・・
70Bを快適に動かそうとするとRTX3090の2枚刺しとかになるんで50万は超える感じですかね8Bなら最近のPCならCPUでもそれなりの速度で動くあとメモリいっぱい積んだM* Macの方がNVIDIA GPU積むより安いってんで使ってる人も多い
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
人生の大半の問題はスルー力で解決する -- スルー力研究専門家
Llama 3 リリース (スコア:0)
https://llama.meta.com/llama3/ [meta.com]
OllamaとOpen WebUIで簡単に家庭内ChatGPTモドキができるYO!
#性能出すにはそれなりに費用が掛かるが
LLM界隈ではザッカーバーグが救世主みたいになってて笑える
Re:Llama 3 リリース (スコア:0)
オフラインでも使えるようにするには
・高性能GPU
・電源ユニット
おいくらぐらいなのか・・・
Re: (スコア:0)
70Bを快適に動かそうとするとRTX3090の2枚刺しとかになるんで50万は超える感じですかね
8Bなら最近のPCならCPUでもそれなりの速度で動く
あとメモリいっぱい積んだM* Macの方がNVIDIA GPU積むより安いってんで使ってる人も多い