Local LLama LLM AI Chat Query Tool
1 件の評価
)概要
Query a local model from your browser.
Elevate your browsing experience with our cutting-edge Chrome extension, designed to seamlessly interact with local models hosted on your own server. This extension allows you to unlock the power of querying local models effortlessly and with precision, all from within your browser. Our extension is fully compatible with both Llama CPP and .gguf models, providing you with a versatile solution for all your modeling needs. To get started, simply access our latest version, which includes a sample Llama CPP Flask server for your convenience. You can find this server on our GitHub repository: GitHub Repository - Local Llama Chrome Extension: https://github.com/mrdiamonddirt/local-llama-chrome-extension To set up the server, install the server's pip package with the following command: ``` pip install local-llama ``` Then, just run: ``` local-llama ``` With just a few straightforward steps, you can harness the capabilities of this extension. Run the provided Python script, install the extension, and instantly gain the ability to effortlessly query your local models. Experience the future of browser-based model interactions today.
5 点満点で 51 件の評価
詳細
- バージョン1.0.6
- 更新:2023年10月2日
- 提供元RowDog
- サイズ375KiB
- 言語English
- デベロッパーrw entreprise services
Piccadilly Business Centre Aldow Enterprise Park Manchester M12 6AE GBメール
mrdiamonddirt@gmail.com - 非取引業者このデベロッパーは取引業者として申告していません。EU 加盟国の消費者とこのデベロッパーとの間に締結された契約には、消費者の権利が適用されません。
プライバシー
このデベロッパーは、お客様のデータについて以下を宣言しています
- 承認されている以外の用途で第三者に販売しないこと
- アイテムの中心機能と関係のない目的で使用または転送しないこと
- 信用力を判断する目的または融資目的で使用または転送しないこと
サポート
質問や提案、問題がある場合は、パソコンのブラウザでこのページを開いてください