ローカルLLMと組み合わせて「会話の裏側で毎回Web検索する」ような仕組みにすると、 LLMがそこそこ賢く振る舞えば振る舞うほど、 検索APIの利用料金が青天井で増えていく 。 ローカルでLLMを回しているのに、 水道の蛇口のように「検索API課金」がチョロチョロではなくドバドバ流れ続ける、という本末転倒な状態になる。