Logoafbeelding van item voor Lokale LLM

Lokale LLM

5,0(

6 beoordelingen

)
ExtensieTools362 gebruikers
Itemmedia 2 (screenshot) voor Lokale LLM
Itemmedia 1 (screenshot) voor Lokale LLM
Itemmedia 2 (screenshot) voor Lokale LLM
Itemmedia 1 (screenshot) voor Lokale LLM
Itemmedia 1 (screenshot) voor Lokale LLM
Itemmedia 2 (screenshot) voor Lokale LLM

Overzicht

Gebruik de Lokale LLM-extensie: voer llm lokaal uit (LLama 70B of DeepSeek met WebLLM + Gemini Nano), stel ai-modellen vragen op je…

Ontmoet een browserhelper die het draaien van lokale modellen natuurlijk, snel en privé maakt. Als je deze chats leuk vindt en je wilt je persoonlijke model dat op je computer draait - dat is het. Je bent nu niet beperkt tot externe diensten en kunt het downloaden. Chat over websites, pdf's of elk ander bestand gewoon in je browser. Krijg een goede samenvatting van pagina's. Het is gebouwd voor mensen die een soepele en schone lokale llm-ui willen, en een praktische manier om de assistent te vragen tijdens het browsen. 🚀 Volgende modellen beschikbaar voor lokaal gebruik: - Google’s Gemini Nano - ingebed in Chrome - DeepSeek R1 Distill Llama 8B - diep nadenken - draait op jouw lokale - Gemma 2 2B - Llama 3.2 1B ✅ Hoe te starten tips 1. Voeg de extensie toe en open de zijbalk 2. Kies uit de lijst in de lokale llm-ui 3. Tik één keer op downloaden 4. Blijf dan elke dag dezelfde setup gebruiken Modellen die beschikbaar zijn om te kiezen zijn altijd zichtbaar, zodat schakelen snel en voorspelbaar is. Je kunt afwisselen tussen lichte en sterkere opties, je favoriete lokale llm-suite behouden en productief blijven zonder van tool te wisselen. Beschikbare keuzes omvatten verschillende vooraf gebouwde webllm voor een in-browser ervaring. Dit helpt je om in de chat op elke website te vragen en modellen met tabcontext te gebruiken, terwijl privé-ai als het standaarddoel behouden blijft. 📦 Een keer downloaden, dan altijd draaien 1️⃣ Krijg lokale webllm één keer 2️⃣ Houd de chat klaar tussen sessies 3️⃣ Verminder de opzetfrictie voor ai llm-taken 4️⃣ Blijf consistent, zelfs wanneer je offline bent Websitecontext is beschikbaar voor modellen, zodat het zich gedraagt als een echte browserassistent. Je kunt ai vragen over je tabs, geselecteerde tekst en de inhoud van de huidige pagina, en vervolgens gefundeerde antwoorden krijgen die passen bij je workflow. Wat je elke dag kunt doen: • Samenvattingen, hoogtepunten en actiepunten op webpagina's - en geen internet vereist • Geselecteerde tekst herschrijven in jouw toon - en llm draait op jouw lokale • Een gesprek voeren over al je sessies • Een tabblad omzetten in notities of een checklist • Snelle antwoorden opstellen met pagina-inhoud Waarom het aanvoelt als een allesomvattende llm-helper: ➤ Snelle, herhaalbare prompts met ai ➤ Duidelijke status en modelwisseling in de lokale llm-ui ➤ Een gemakkelijker verloop voor onderzoek en schrijven ➤ Als je gewoon llm op jouw lokale wilt draaien 📺 Meer slimme dingen die je meteen kunt doen: 🔄 Maak rommelige pagina's om tot gestructureerde outlines voor studie of werk 🔍 Haal definities, namen en belangrijke feiten zonder de tab te verlaten ❓ Maak vervolgvragen voor llm om het begrip in enkele seconden te verdiepen 🛡️ Vat meerdere bronnen samen en vergelijk conclusies naast elkaar 🎁 Bouw een korte briefing met alleen lokale open websitecontext Privacy en controle, zonder extra complexiteit: ▸ geen enkele query verlaat jouw computer, terwijl je opensource-modellen gebruikt ▸ privé ai, lokaal ontworpen ▸ WebLLM Voor bouwers en ontdekkers biedt het opensource llms 🧩 - het voelt alsof je je eigen lokale model bouwt. Als je graag knutselt, kun je je setup als een persoonlijk laboratorium beschouwen: ➤ houd een lichte suite voor snelheid, en een sterkere voor redenering ➤ test verschillende lokale llms voor verschillende taken en schrijfstijlen ➤ volg updates om verbeteringen in kwaliteit en stabiliteit bij te houden ➤ verken opensource llms-trends zonder je dagelijkse flow te veranderen Updates blijven beheersbaar en gebruiksvriendelijk: 💎 Updates die de outputkwaliteit verbeteren 🚀 Eenvoudige modelwisseling zonder je flow te onderbreken Extra details die helpen in het echte leven: • Duidelijke scheiding tussen tabcontext en je eigen notities op jouw lokale • Een herhaalbare workflow die onderzoek, schrijven en plannen ondersteunt • Consistent gedrag, zelfs over lange sessies en veel open pagina's • Een eenvoudig pad van downloaden ai naar dagelijks gebruik, zonder extra stappen Als je iemand een gemakkelijke manier wilt leren om hun eigen llm te installeren, is dit een schoon startpunt. Het past ook bij een downloadbare ai-repository mindset, zodat je ai één keer kunt downloaden, ai-modellen klaar kunt houden en herhaling van dezelfde opzetstappen kunt vermijden. Gebruikscases waar mensen dol op zijn: ◆ lange artikelen samenvatten ◆ actiepunten uit documenten extraheren ◆ e-mails herschrijven vanuit pagina-inhoud ◆ bronnen op websites vergelijken ◆ gestructureerde notities snel maken Bonusideeën voor dagelijks browsen: 1️⃣ Maak een snelle woordenlijst van technische pagina's 2️⃣ Zet documentatie om in een checklist die je kunt volgen 3️⃣ Herschrijf inhoud voor verschillende doelgroepen of niveaus 4️⃣ Genereer een korte briefing van de tab in één keer 5️⃣ Leg belangrijke inzichten vast voor je persoonlijke kennisbasis

Details

  • Versie
    1.13.0
  • Geüpdatet
    23 maart 2026
  • Aangeboden door
    soft with love
  • Grootte
    7.84MiB
  • Talen
    52 talen
  • Ontwikkelaar
    E-mail
    love.programmin@gmail.com
  • Geen handelaar
    Deze ontwikkelaar heeft zichzelf niet geïdentificeerd als handelaar. Voor consumenten in de Europese Unie geldt dat consumentenrechten niet van toepassing zijn op contracten tussen jou en deze ontwikkelaar.

Privacy

Beheer extensies en ontdek hoe ze worden gebruikt in je organisatie
De ontwikkelaar heeft aangegeven dat je gegevens niet worden verzameld of gebruikt. Bekijk het privacy policy van de ontwikkelaar voor meer informatie.

Deze ontwikkelaar verklaart dat je gegevens:

  • Niet worden verkocht aan derden, behalve voor de goedgekeurde toepassingen
  • Niet worden gebruikt of overgedragen voor doeleinden die niet zijn gerelateerd aan de kernfunctionaliteit van het item
  • Niet worden gebruikt of overgedragen om de kredietwaardigheid te bepalen of voor doeleinden met betrekking tot leningen

Gerelateerd

Gemini™ AI Assistant ✨

5,0

Side-panel AI Browsing Assistant

LM Studio Assistant

4,0

LM Studio Assistant: Browser ext. for text analysis using LM Studio models locally for enhanced privacy & security.

GL Git Clone

5,0

Adds 'git clone' to the ssh/https clone url, so you simply can copy and paste it into your terminal.

Image to Text (Using AI)

0,0

Generate a caption for any image via artificial intelligence.

Offload: Fully private AI for any website using local models.

5,0

A fully private in-browser AI assistant. Works even offline. No external API dependencies.

Local LLM Helper

1,8

Interact with your local LLM server directly from your browser.

Local LLama LLM AI Chat Query Tool

5,0

Query a local model from your browser.

NoAIBills: Local AI Chat with DeepSeek & Llama

3,5

Run DeepSeek-R1 and Llama 3.2 locally in your browser. 100% Private. No API keys. No subscriptions.

Offline GPT: Offline (local) AI Chat Assistant

5,0

Chat with AI using locally downloaded models (WebLLM) and current page context

ollama-client

4,8

Local-first Chrome extension for private LLM chat with Ollama, LM Studio, and llama.cpp, including local RAG workflows.

Extension-OS: Your AI Partner

4,0

AI at Your Fingertips, Anytime, Anywhere.

WebextLLM

5,0

Browser-native LLMs at your fingertips

Gemini™ AI Assistant ✨

5,0

Side-panel AI Browsing Assistant

LM Studio Assistant

4,0

LM Studio Assistant: Browser ext. for text analysis using LM Studio models locally for enhanced privacy & security.

GL Git Clone

5,0

Adds 'git clone' to the ssh/https clone url, so you simply can copy and paste it into your terminal.

Image to Text (Using AI)

0,0

Generate a caption for any image via artificial intelligence.

Offload: Fully private AI for any website using local models.

5,0

A fully private in-browser AI assistant. Works even offline. No external API dependencies.

Local LLM Helper

1,8

Interact with your local LLM server directly from your browser.

Local LLama LLM AI Chat Query Tool

5,0

Query a local model from your browser.

NoAIBills: Local AI Chat with DeepSeek & Llama

3,5

Run DeepSeek-R1 and Llama 3.2 locally in your browser. 100% Private. No API keys. No subscriptions.

Google-apps