Logobild des Artikels für Lokales LLM

Lokales LLM

5,0(

6 Bewertungen

)
Medienelement 2 (Screenshot) für Lokales LLM
Medienelement 1 (Screenshot) für Lokales LLM
Medienelement 2 (Screenshot) für Lokales LLM
Medienelement 1 (Screenshot) für Lokales LLM
Medienelement 1 (Screenshot) für Lokales LLM
Medienelement 2 (Screenshot) für Lokales LLM

Übersicht

Verwenden Sie die Lokales LLM-Erweiterung: Führen Sie LLM lokal aus (LLama 70B oder DeepSeek mit WebLLM + Gemini Nano), fragen Sie…

Treffen Sie einen Browser-Helfer, der das Ausführen lokaler Modelle natürlich, schnell und privat erscheinen lässt. Wenn Ihnen diese Chats gefallen und Sie Ihr persönliches Modell haben möchten, das auf Ihrem Computer läuft – das ist es. Sie sind jetzt nicht mehr auf externe Dienste angewiesen und können es herunterladen. Chatten Sie über Webseiten, PDFs oder jede andere Datei direkt in Ihrem Browser. Erhalten Sie eine gute Zusammenfassung von Seiten. Es ist für Menschen gebaut, die eine reibungslose und saubere Benutzeroberfläche für lokale LLMs wünschen und eine praktische Möglichkeit, den Assistenten beim Surfen zu fragen. 🚀 Nächste Modelle für die lokale Nutzung verfügbar: - Google’s Gemini Nano - in Chrome eingebettet - DeepSeek R1 Distill Llama 8B - tiefes Denken - läuft lokal - Gemma 2 2B - Llama 3.2 1B ✅ Tipps zum Starten 1. Fügen Sie die Erweiterung hinzu und öffnen Sie die Seitenleiste 2. Wählen Sie aus der Liste in der Benutzeroberfläche für lokale LLMs 3. Tippen Sie einmal auf Download 4. Verwenden Sie dann jeden Tag dasselbe Setup Die verfügbaren Modelle sind immer sichtbar, sodass der Wechsel schnell und vorhersehbar ist. Sie können zwischen leichten und stärkeren Optionen wechseln, Ihre bevorzugte lokale LLM-Suite beibehalten und produktiv bleiben, ohne zwischen den Werkzeugen zu wechseln. Verfügbare Optionen umfassen verschiedene vorgefertigte WebLLMs für ein In-Browser-Erlebnis. Dies hilft Ihnen, in Chats auf jeder Webseite zu fragen und Modelle mit Tab-Kontext zu verwenden, während private KI als das Standardziel beibehalten wird. 📦 Einmal herunterladen, dann immer ausführen 1️⃣ Holen Sie sich das lokale WebLLM einmalig 2️⃣ Halten Sie den Chat über Sitzungen hinweg bereit 3️⃣ Reduzieren Sie die Einrichtungsfriktion für KI-LLM-Aufgaben 4️⃣ Bleiben Sie konsistent, auch wenn Sie offline sind Der Webseitenkontext ist für Modelle verfügbar, sodass es sich wie ein echter Browser-Assistent verhält. Sie können die KI nach Ihren Tabs, ausgewähltem Text und dem Inhalt der aktuellen Seite fragen und erhalten dann fundierte Antworten, die zu Ihrem Arbeitsablauf passen. Was Sie jeden Tag tun können: • Zusammenfassungen, Highlights und Aktionspunkte auf Webseiten - und kein Internet erforderlich • Ausgewählten Text in Ihrem Ton umschreiben - und LLM läuft lokal • Führen Sie ein Gespräch über alle Ihre Sitzungen hinweg • Verwandeln Sie einen Tab in Notizen oder eine Checkliste • Entwerfen Sie schnelle Antworten mit Seitenkontext Warum es sich wie ein beliebiger LLM-Helfer anfühlt: ➤ Schnelle, wiederholbare Eingabeaufforderungen mit KI ➤ Klarer Status und Modellwechsel in der Benutzeroberfläche für lokale LLMs ➤ Ein einfacher Fluss für Forschung und Schreiben ➤ Wenn Sie einfach nur LLMs lokal ausführen möchten 📺 Weitere intelligente Dinge, die Sie sofort tun können: 🔄 Verwandeln Sie unordentliche Seiten in strukturierte Gliederungen für Studium oder Arbeit 🔍 Extrahieren Sie Definitionen, Namen und wichtige Fakten, ohne den Tab zu verlassen ❓Erstellen Sie Folgefragen, um das Verständnis der LLMs in Sekunden zu vertiefen 🛡️Fassen Sie mehrere Quellen zusammen und vergleichen Sie die Schlussfolgerungen nebeneinander 🎁 Erstellen Sie ein kurzes Briefing, das nur den lokalen offenen Webseitenkontext verwendet Privatsphäre und Kontrolle, ohne zusätzliche Komplexität: ▸ Keine Abfrage verlässt Ihren Computer, während Sie Open-Source-Modelle verwenden ▸ Private KI, lokal von Grund auf ▸ WebLLM Für Entwickler und Entdecker bietet es Open-Source-LLMs 🧩 - es fühlt sich an, als würden Sie Ihr eigenes lokales Modell konstruieren. Wenn Sie gerne experimentieren, können Sie Ihr Setup wie ein persönliches Labor behandeln: ➤ Halten Sie eine leichte Suite für Geschwindigkeit und eine stärkere für das Denken ➤ Testen Sie verschiedene lokale LLMs für unterschiedliche Aufgaben und Schreibstile ➤ Verfolgen Sie Updates, um Verbesserungen in Qualität und Stabilität zu verfolgen ➤ Erkunden Sie Trends bei Open-Source-LLMs, ohne Ihren täglichen Fluss zu ändern Updates bleiben überschaubar und benutzerfreundlich: 💎 Updates, die die Ausgabequalität verbessern 🚀 Einfacher Modellwechsel, ohne Ihren Fluss zu unterbrechen Zusätzliche Details, die im echten Leben helfen: • Klare Trennung zwischen Tab-Kontext und Ihren eigenen Notizen auf Ihrem lokalen Gerät • Ein wiederholbarer Arbeitsablauf, der Forschung, Schreiben und Planung unterstützt • Konsistentes Verhalten, selbst über lange Sitzungen und viele geöffnete Seiten hinweg • Ein einfacher Weg vom Herunterladen der KI zur täglichen Nutzung, ohne zusätzliche Schritte Wenn Sie jemandem einen einfachen Weg beibringen, wie er sein eigenes LLM installieren kann, ist dies ein sauberer Ausgangspunkt. Es entspricht auch einer Denkweise für herunterladbare KI-Repositories, sodass Sie KI einmal herunterladen, KI-Modelle bereit halten und die gleichen Einrichtungsschritte vermeiden können. Anwendungsfälle, die die Leute lieben: ◆ Lange Artikel zusammenfassen ◆ Aktionspunkte aus Dokumenten extrahieren ◆ E-Mails aus dem Seitenkontext umschreiben ◆ Quellen auf Webseiten vergleichen ◆ Schnell strukturierte Notizen erstellen Bonusideen für das tägliche Surfen: 1️⃣ Erstellen Sie ein schnelles Glossar aus technischen Seiten 2️⃣ Verwandeln Sie Dokumentationen in eine Checkliste, der Sie folgen können 3️⃣ Schreiben Sie Inhalte für unterschiedliche Zielgruppen oder Niveaus um 4️⃣ Generieren Sie ein kurzes Briefing aus dem Tab auf einmal 5️⃣ Erfassen Sie wichtige Erkenntnisse für Ihre persönliche Wissensdatenbank

Details

  • Version
    1.13.0
  • Aktualisiert
    23. März 2026
  • Angeboten von
    soft with love
  • Größe
    7.84MiB
  • Sprachen
    52 Sprachen
  • Entwickler
    E-Mail
    love.programmin@gmail.com
  • Kein Händler
    Dieser Entwickler hat sich nicht als Händler deklariert. Für Verbraucher in der Europäischen Union gelten die Verbraucherrechte nicht für Verträge, die zwischen dir und diesem Entwickler geschlossen werden.

Datenschutz

Erweiterungen verwalten und Informationen zur Verwendung in deiner Organisation abrufen
Der Entwickler hat offengelegt, dass keine deiner Daten erhoben oder genutzt werden. Weitere Informationen findest du in der privacy policy des Entwicklers.

Dieser Entwickler erklärt, dass deine Daten

  • nicht an Dritte verkauft werden, außer in den genehmigten Anwendungsfällen
  • nicht für Zwecke genutzt oder übertragen werden, die nichts mit der Hauptfunktionalität des Artikels zu tun haben
  • nicht zur Ermittlung der Kreditwürdigkeit oder für Darlehenszwecke verwendet oder übertragen werden

Ähnliche

Gemini™ AI Assistant ✨

5,0

Side-panel AI Browsing Assistant

LM Studio Assistant

4,0

LM Studio Assistant: Browser ext. for text analysis using LM Studio models locally for enhanced privacy & security.

GL Git Clone

5,0

Adds 'git clone' to the ssh/https clone url, so you simply can copy and paste it into your terminal.

Image to Text (Using AI)

0,0

Generate a caption for any image via artificial intelligence.

Offload: Fully private AI for any website using local models.

5,0

A fully private in-browser AI assistant. Works even offline. No external API dependencies.

Local LLM Helper

1,8

Interact with your local LLM server directly from your browser.

Local LLama LLM AI Chat Query Tool

5,0

Query a local model from your browser.

NoAIBills: Local AI Chat with DeepSeek & Llama

3,5

Run DeepSeek-R1 and Llama 3.2 locally in your browser. 100% Private. No API keys. No subscriptions.

Offline GPT: Offline (local) AI Chat Assistant

5,0

Chat with AI using locally downloaded models (WebLLM) and current page context

ollama-client

4,8

Local-first Chrome extension for private LLM chat with Ollama, LM Studio, and llama.cpp, including local RAG workflows.

Extension-OS: Your AI Partner

4,0

AI at Your Fingertips, Anytime, Anywhere.

WebextLLM

5,0

Browser-native LLMs at your fingertips

Gemini™ AI Assistant ✨

5,0

Side-panel AI Browsing Assistant

LM Studio Assistant

4,0

LM Studio Assistant: Browser ext. for text analysis using LM Studio models locally for enhanced privacy & security.

GL Git Clone

5,0

Adds 'git clone' to the ssh/https clone url, so you simply can copy and paste it into your terminal.

Image to Text (Using AI)

0,0

Generate a caption for any image via artificial intelligence.

Offload: Fully private AI for any website using local models.

5,0

A fully private in-browser AI assistant. Works even offline. No external API dependencies.

Local LLM Helper

1,8

Interact with your local LLM server directly from your browser.

Local LLama LLM AI Chat Query Tool

5,0

Query a local model from your browser.

NoAIBills: Local AI Chat with DeepSeek & Llama

3,5

Run DeepSeek-R1 and Llama 3.2 locally in your browser. 100% Private. No API keys. No subscriptions.

Google-Apps