Översikt
Använd Lokal LLM-tillägget: kör llm lokalt (LLama 70B eller DeepSeek med WebLLM + Gemini Nano), ställ frågor till ai-modeller på…
Möt en webbläsarhjälpare som gör att körning av lokala modeller känns naturligt, snabbt och privat. Om du gillar dessa chattar och vill ha din personliga, som kommer att köras på din dator - det är det. Du är nu inte begränsad till externa tjänster och kan ladda ner den. Chatta om webbplatser, pdf:er eller andra filer direkt i din webbläsare. Få en bra sammanfattning av sidor. Den är byggd för människor som vill ha en smidig och ren lokal LLM-användargränssnitt, och ett praktiskt sätt att ställa frågor till assistenten medan du surfar. 🚀 Nästa modeller tillgängliga för lokal användning: - Googles Gemini Nano - inbäddad i Chrome - DeepSeek R1 Distill Llama 8B - djup tänkande - körs på din lokala - Gemma 2 2B - Llama 3.2 1B ✅ Hur man börjar tips 1. Lägg till tillägget och öppna sidofältet 2. Välj från listan i det lokala LLM-användargränssnittet 3. Tryck på ladda ner en gång 4. Fortsätt sedan att använda samma inställning varje dag Modeller som är tillgängliga för val är alltid synliga, så att byta är snabbt och förutsägbart. Du kan växla mellan lätta och starkare alternativ, behålla din föredragna lokala LLM-svit och förbli produktiv utan att hoppa mellan verktyg. Tillgängliga val inkluderar olika förbyggda webblm för en inbrowsarupplevelse. Detta hjälper dig att ställa frågor i chatt på vilken webbplats som helst och använda modeller med flikkontext, samtidigt som du håller privat AI som det primära målet. 📦 Ladda ner en gång, kör alltid 1️⃣ Skaffa lokal webblm en gång 2️⃣ Håll chatten redo över sessioner 3️⃣ Minska installationsfriktionen för AI LLM-uppgifter 4️⃣ Förbli konsekvent även när du är offline Webbplatskontext är tillgänglig för modeller, så den beter sig som en riktig webbläsarassistent. Du kan fråga AI om dina flikar, vald text och innehållet på den aktuella sidan, och få grundade svar som passar ditt arbetsflöde. Vad du kan göra varje dag: • Sammanfattningar, höjdpunkter och åtgärdspunkter på webbplatsen - och ingen internetuppkoppling krävs • Omskrivning av vald text i din ton - och LLM körs lokalt • Ha en konversation över alla dina sessioner • Omvandla en flik till anteckningar eller en checklista • Utforma snabba svar med sidkontext Varför det känns som en allt-i-ett LLM-hjälpare: ➤ Snabba, upprepbara uppmaningar med AI ➤ Tydlig status och modellbyte i det lokala LLM-användargränssnittet ➤ Ett enklare flöde för forskning och skrivande ➤ Om du bara vill köra LLM på din lokala 📺 Fler smarta saker du kan göra direkt: 🔄 Omvandla röriga sidor till strukturerade översikter för studier eller arbete 🔍 Extrahera definitioner, namn och viktiga fakta utan att lämna fliken ❓ Skapa uppföljningsfrågor till LLM för att fördjupa förståelsen på några sekunder 🛡️ Sammanfatta flera källor, och jämför slutsatser sida vid sida 🎁 Bygg en kort sammanfattning med endast lokal öppen webbplatskontext Integritet och kontroll, utan extra komplexitet: ▸ Ingen fråga kommer att lämna din dator, medan du använder öppen källkod-modeller ▸ Privat AI, lokal av design ▸ WebLLM För byggare och utforskare ger det öppna källkod LLM 🧩 - känns som att du konstruerar din egen lokala. Om du gillar att experimentera kan du behandla din installation som ett personligt laboratorium: ➤ Håll en lättviktig svit för hastighet, och en starkare för resonemang ➤ Testa olika lokala LLM för olika uppgifter och skrivstilar ➤ Följ uppdateringar för att spåra förbättringar i kvalitet och stabilitet ➤ Utforska trender inom öppen källkod LLM utan att ändra ditt dagliga flöde Uppdateringar förblir hanterbara och användarvänliga: 💎 Uppdateringar som förbättrar utdata kvalitet 🚀 Enkelt modellbyte utan att bryta ditt flöde Extra detaljer som hjälper i verkliga livet: • Tydlig separation mellan flikkontext och dina egna anteckningar på din lokala • Ett upprepbart arbetsflöde som stöder forskning, skrivande och planering • Konsekvent beteende även över långa sessioner och många öppna sidor • En enkel väg från nedladdning av AI till daglig användning, utan extra steg Om du lär någon ett enkelt sätt att installera sin egen LLM, är detta en ren utgångspunkt. Det matchar också en nedladdningsbar AI-repository mentalitet, så du kan ladda ner AI en gång, hålla AI-modeller redo och undvika att upprepa samma installationssteg. Användningsfall som folk älskar: ◆ sammanfatta långa artiklar ◆ extrahera åtgärdspunkter från dokument ◆ omskriva e-post från sidkontext ◆ jämföra källor på webbplats ◆ skapa strukturerade anteckningar snabbt Bonusidéer för vardagligt surfande: 1️⃣ Skapa ett snabbt lexikon från tekniska sidor 2️⃣ Omvandla dokumentation till en checklista du kan följa 3️⃣ Omskriv innehåll för olika målgrupper eller nivåer 4️⃣ Generera en kort sammanfattning från fliken på en gång 5️⃣ Fånga viktiga insikter för din personliga kunskapsbas
Information
- Version1.13.0
- Uppdaterat23 mars 2026
- Erbjudandet kommer frånsoft with love
- Storlek7.84MiB
- Språk52 språk
- Utvecklare
E-post
love.programmin@gmail.com - Icke-näringsidkareUtvecklaren har inte angett att den är näringsidkare. Konsumenter i EU bör tänka på att konsumenträttigheter inte gäller för avtal mellan dig och denna utvecklare.
Integritet
Denna utvecklare försäkrar att din data
- inte säljs till tredje part, förutom i godkända användningsfall
- inte används eller överförs för ändamål som inte är relaterade till objektets huvudfunktioner
- inte används eller överförs i syfte att bedöma kreditvärdighet eller för lån.