top of page
LLMのモデルによる応答性の比較
目的 前回の検証では、OPSNOTE(当社開発中の手順書 SaaS)におけるAzure上の自社ホストAIモデルに対して、性能比較を行い、現時点ではqwen2.5:14bとClaude Haikuでは、勝負にならないことまではわかりました。 今回は、同じローカルLLMに対して、Macbook Pro M2 16GBのモデル上で、ollama経由での応答を比較したいと思います。 先に結論 どのモデルもClaude Haikuレベルに達していない。 ローカルLLMを使用する場合には、VRAM32GB以上を搭載したモデルが稼働できるレベルに至らないと、評価の土台に乗ってこない。 環境 動作環境:Macbook Pro M2 16GB ollamaバージョン:0.9.2 比較モデル:gemma4:4b, llama3.1:8b, qwent3.5:4b 前提:AIモデルに対する事前チューニング無し 比較する文字列 UbuntuにPostfixをインストールし、特定のIPアドレスのみを外部リレーするサーバを構築したい。手順を教えて。 あなたは IT...
ccf代表
14 時間前読了時間: 11分
bottom of page
