2024-07-10
GPUサーバーを1時間単位で借りられる、さくらのクラウド高火力プラン(4コア x 56GB NVIDIA V100)を使った、ローカルLLMの実験。(参考、日本語LLM(OpenCALM)をHTTP APIから使えるようにする #Python - Qiita


一問一答式の簡単なウェブアプリをテスト用に作りました。1年前のローカルLLMなので、回答精度はいまいちです。

BASIC認証にアクセスできる、fetchBasic.js を作成。PythonのウェブサーバーとDenoをつないでいます。


「ai_chat_lllm on GitHub」

設定方法をまとめました。ローカルLLM、いろいろと新しいものも出ているのでチャレンジしてみたい!

Tweet
クリエイティブ・コモンズ・ライセンス
本ブログの記事や写真は「Creative Commons — CC BY 4.0」の下に提供します。記事内で紹介するプログラムや作品は、それぞれに記載されたライセンスを参照ください。
CC BY / @taisukef / アイコン画像 / プロフィール画像 / 「一日一創」画像 / RSS