Logotypbild för objektet Lokal LLM

Lokal LLM

5,0(

6 betyg

)
TilläggVerktyg362 användare
Media för objektet: 2 (skärmbild) för Lokal LLM
Media för objektet: 1 (skärmbild) för Lokal LLM
Media för objektet: 2 (skärmbild) för Lokal LLM
Media för objektet: 1 (skärmbild) för Lokal LLM
Media för objektet: 1 (skärmbild) för Lokal LLM
Media för objektet: 2 (skärmbild) för Lokal LLM

Översikt

Använd Lokal LLM-tillägget: kör llm lokalt (LLama 70B eller DeepSeek med WebLLM + Gemini Nano), ställ frågor till ai-modeller på…

Möt en webbläsarhjälpare som gör att körning av lokala modeller känns naturligt, snabbt och privat. Om du gillar dessa chattar och vill ha din personliga, som kommer att köras på din dator - det är det. Du är nu inte begränsad till externa tjänster och kan ladda ner den. Chatta om webbplatser, pdf:er eller andra filer direkt i din webbläsare. Få en bra sammanfattning av sidor. Den är byggd för människor som vill ha en smidig och ren lokal LLM-användargränssnitt, och ett praktiskt sätt att ställa frågor till assistenten medan du surfar. 🚀 Nästa modeller tillgängliga för lokal användning: - Googles Gemini Nano - inbäddad i Chrome - DeepSeek R1 Distill Llama 8B - djup tänkande - körs på din lokala - Gemma 2 2B - Llama 3.2 1B ✅ Hur man börjar tips 1. Lägg till tillägget och öppna sidofältet 2. Välj från listan i det lokala LLM-användargränssnittet 3. Tryck på ladda ner en gång 4. Fortsätt sedan att använda samma inställning varje dag Modeller som är tillgängliga för val är alltid synliga, så att byta är snabbt och förutsägbart. Du kan växla mellan lätta och starkare alternativ, behålla din föredragna lokala LLM-svit och förbli produktiv utan att hoppa mellan verktyg. Tillgängliga val inkluderar olika förbyggda webblm för en inbrowsarupplevelse. Detta hjälper dig att ställa frågor i chatt på vilken webbplats som helst och använda modeller med flikkontext, samtidigt som du håller privat AI som det primära målet. 📦 Ladda ner en gång, kör alltid 1️⃣ Skaffa lokal webblm en gång 2️⃣ Håll chatten redo över sessioner 3️⃣ Minska installationsfriktionen för AI LLM-uppgifter 4️⃣ Förbli konsekvent även när du är offline Webbplatskontext är tillgänglig för modeller, så den beter sig som en riktig webbläsarassistent. Du kan fråga AI om dina flikar, vald text och innehållet på den aktuella sidan, och få grundade svar som passar ditt arbetsflöde. Vad du kan göra varje dag: • Sammanfattningar, höjdpunkter och åtgärdspunkter på webbplatsen - och ingen internetuppkoppling krävs • Omskrivning av vald text i din ton - och LLM körs lokalt • Ha en konversation över alla dina sessioner • Omvandla en flik till anteckningar eller en checklista • Utforma snabba svar med sidkontext Varför det känns som en allt-i-ett LLM-hjälpare: ➤ Snabba, upprepbara uppmaningar med AI ➤ Tydlig status och modellbyte i det lokala LLM-användargränssnittet ➤ Ett enklare flöde för forskning och skrivande ➤ Om du bara vill köra LLM på din lokala 📺 Fler smarta saker du kan göra direkt: 🔄 Omvandla röriga sidor till strukturerade översikter för studier eller arbete 🔍 Extrahera definitioner, namn och viktiga fakta utan att lämna fliken ❓ Skapa uppföljningsfrågor till LLM för att fördjupa förståelsen på några sekunder 🛡️ Sammanfatta flera källor, och jämför slutsatser sida vid sida 🎁 Bygg en kort sammanfattning med endast lokal öppen webbplatskontext Integritet och kontroll, utan extra komplexitet: ▸ Ingen fråga kommer att lämna din dator, medan du använder öppen källkod-modeller ▸ Privat AI, lokal av design ▸ WebLLM För byggare och utforskare ger det öppna källkod LLM 🧩 - känns som att du konstruerar din egen lokala. Om du gillar att experimentera kan du behandla din installation som ett personligt laboratorium: ➤ Håll en lättviktig svit för hastighet, och en starkare för resonemang ➤ Testa olika lokala LLM för olika uppgifter och skrivstilar ➤ Följ uppdateringar för att spåra förbättringar i kvalitet och stabilitet ➤ Utforska trender inom öppen källkod LLM utan att ändra ditt dagliga flöde Uppdateringar förblir hanterbara och användarvänliga: 💎 Uppdateringar som förbättrar utdata kvalitet 🚀 Enkelt modellbyte utan att bryta ditt flöde Extra detaljer som hjälper i verkliga livet: • Tydlig separation mellan flikkontext och dina egna anteckningar på din lokala • Ett upprepbart arbetsflöde som stöder forskning, skrivande och planering • Konsekvent beteende även över långa sessioner och många öppna sidor • En enkel väg från nedladdning av AI till daglig användning, utan extra steg Om du lär någon ett enkelt sätt att installera sin egen LLM, är detta en ren utgångspunkt. Det matchar också en nedladdningsbar AI-repository mentalitet, så du kan ladda ner AI en gång, hålla AI-modeller redo och undvika att upprepa samma installationssteg. Användningsfall som folk älskar: ◆ sammanfatta långa artiklar ◆ extrahera åtgärdspunkter från dokument ◆ omskriva e-post från sidkontext ◆ jämföra källor på webbplats ◆ skapa strukturerade anteckningar snabbt Bonusidéer för vardagligt surfande: 1️⃣ Skapa ett snabbt lexikon från tekniska sidor 2️⃣ Omvandla dokumentation till en checklista du kan följa 3️⃣ Omskriv innehåll för olika målgrupper eller nivåer 4️⃣ Generera en kort sammanfattning från fliken på en gång 5️⃣ Fånga viktiga insikter för din personliga kunskapsbas

Information

  • Version
    1.13.0
  • Uppdaterat
    23 mars 2026
  • Erbjudandet kommer från
    soft with love
  • Storlek
    7.84MiB
  • Språk
    52 språk
  • Utvecklare
    E-post
    love.programmin@gmail.com
  • Icke-näringsidkare
    Utvecklaren har inte angett att den är näringsidkare. Konsumenter i EU bör tänka på att konsumenträttigheter inte gäller för avtal mellan dig och denna utvecklare.

Integritet

Hantera tillägg och se hur de används i organisationen
Utvecklaren har angett att din data inte samlas in eller används. Mer information finns i utvecklarens privacy policy.

Denna utvecklare försäkrar att din data

  • inte säljs till tredje part, förutom i godkända användningsfall
  • inte används eller överförs för ändamål som inte är relaterade till objektets huvudfunktioner
  • inte används eller överförs i syfte att bedöma kreditvärdighet eller för lån.

Relaterat

Gemini™ AI Assistant ✨

5,0

Side-panel AI Browsing Assistant

LM Studio Assistant

4,0

LM Studio Assistant: Browser ext. for text analysis using LM Studio models locally for enhanced privacy & security.

GL Git Clone

5,0

Adds 'git clone' to the ssh/https clone url, so you simply can copy and paste it into your terminal.

Image to Text (Using AI)

0,0

Generate a caption for any image via artificial intelligence.

Offload: Fully private AI for any website using local models.

5,0

A fully private in-browser AI assistant. Works even offline. No external API dependencies.

Local LLM Helper

1,8

Interact with your local LLM server directly from your browser.

Local LLama LLM AI Chat Query Tool

5,0

Query a local model from your browser.

NoAIBills: Local AI Chat with DeepSeek & Llama

3,5

Run DeepSeek-R1 and Llama 3.2 locally in your browser. 100% Private. No API keys. No subscriptions.

Offline GPT: Offline (local) AI Chat Assistant

5,0

Chat with AI using locally downloaded models (WebLLM) and current page context

ollama-client

4,8

Local-first Chrome extension for private LLM chat with Ollama, LM Studio, and llama.cpp, including local RAG workflows.

Extension-OS: Your AI Partner

4,0

AI at Your Fingertips, Anytime, Anywhere.

WebextLLM

5,0

Browser-native LLMs at your fingertips

Gemini™ AI Assistant ✨

5,0

Side-panel AI Browsing Assistant

LM Studio Assistant

4,0

LM Studio Assistant: Browser ext. for text analysis using LM Studio models locally for enhanced privacy & security.

GL Git Clone

5,0

Adds 'git clone' to the ssh/https clone url, so you simply can copy and paste it into your terminal.

Image to Text (Using AI)

0,0

Generate a caption for any image via artificial intelligence.

Offload: Fully private AI for any website using local models.

5,0

A fully private in-browser AI assistant. Works even offline. No external API dependencies.

Local LLM Helper

1,8

Interact with your local LLM server directly from your browser.

Local LLama LLM AI Chat Query Tool

5,0

Query a local model from your browser.

NoAIBills: Local AI Chat with DeepSeek & Llama

3,5

Run DeepSeek-R1 and Llama 3.2 locally in your browser. 100% Private. No API keys. No subscriptions.

Googles appar