clineをgithub copilotで試しているとすぐトークン数の上限に達してしまってしばらく待たないといけなくなるので、待っている間にローカルLLMで動かすのを試している。
しかし、指示を出しても普通のチャットみたいに返してくるだけでファイルを生成してくれない。モデルの性能不足なんだろうか。
しかし、指示を出しても普通のチャットみたいに返してくるだけでファイルを生成してくれない。モデルの性能不足なんだろうか。
Comments
一応fizzbuzz問題をpythonで解くコードは書いてくれたけど、モデル性能のせいなのか最終的な回答に至るまでの出力が冗長な感じがする。
とはいえ、ローカルLLMでコードを出力できる環境があるのは心強い。
こうなるとProject DIGITSが欲しくなるなぁ・・・。