Offline GPT: Offline (local) AI Chat Assistant
2 件の評価
)概要
Chat with AI using locally downloaded models (WebLLM) and current page context
Offline AI Chat Assistant - LLM in your browser 🎯 KEY FEATURES • 100% Offline AI - All processing happens locally on your device • Multiple Models - Choose from Phi-3-mini (2.3GB), Llama-3.1-8B (4.9GB), or Qwen2.5-7B (4.3GB) • Page Context Aware - Automatically reads current webpage to answer questions about it • Complete Privacy - No data sent to external servers, no API keys needed. Actually, no interned is needed. 🔧 HOW IT WORKS 1. Select a model from the dropdown 2. Model downloads once and caches permanently 3. Start chatting - AI runs entirely in your browser using WebGPU 4. Ask questions about the current webpage or general topics 💡 USE CASES • Summarize articles and documentation • Answer questions about webpage content • Code assistance and explanations • General knowledge queries • All without internet connection (after initial setup) ⚙️ REQUIREMENTS • Chrome 113+ (Stable, Beta, Dev, or Canary) • WebGPU support (enabled by default) • 2-7GB storage for models • 2-6GB available RAM 🔒 PRIVACY • All AI processing happens locally • No external API calls (except one-time model download) • No user data collection or tracking • Conversations stored locally in your browser only 🆓 FREE & OPEN SOURCE No subscriptions, no API costs, no hidden fees. Models powered by WebLLM and MLC AI.
5 点満点で 52 件の評価
詳細
- バージョン3.1
- 更新:2025年12月8日
- 提供元Viktor Evdokimov
- サイズ1.98MiB
- 言語English
- デベロッパーoffice
メール
kto.viktor.kto@gmail.com - 非取引業者このデベロッパーは取引業者として申告していません。EU 加盟国の消費者とこのデベロッパーとの間に締結された契約には、消費者の権利が適用されません。
プライバシー
このデベロッパーは、お客様のデータについて以下を宣言しています
- 承認されている以外の用途で第三者に販売しないこと
- アイテムの中心機能と関係のない目的で使用または転送しないこと
- 信用力を判断する目的または融資目的で使用または転送しないこと