西川 和久 2026年4月13日 06:07 2026年現在、ローカルでLLMを楽しむ場合、たとえばLM Studioをダウンロード/起動、 モデルをダウンロード、設定、実行する必要がある。こういうと簡単といえば簡単だが、 ちょっとハードルが高い。クラウドサービスと同様、WebブラウザであるURLを開くだけで、 サクッとローカルLLMが動けば……と思われるかもしれない。
これを実現するのがWebGPUだ。今回の記事では、WebブラウザとWebGPUを使って手軽に ローカルLLMを動かす仕組みと、すぐに試せるサイトを紹介する。 https://pc.watch.impress.co.jp/docs/column/nishikawa/2100827.html |