Page Assist - En Web UI for at køre AI modeller lokalt
Oversigt
Brug dine lokalt kørende AI-modeller til at hjælpe dig med at surfe på nettet.
Page Assist - En Sidebar og Web UI til Dine Lokale AI-modeller Brug dine egne AI-modeller, der kører lokalt, til at interagere med, mens du browser, eller som en webgrænseflade til din lokale AI-modeludbyder som Ollama, Chrome AI osv. Repo: https://github.com/n4ze3m/page-assist Nuværende funktioner: - Sidebar til forskellige opgaver - Understøttelse af visionsmodeller - En minimalistisk webgrænseflade til lokale AI-modeller - Internetsøgning - Chat med PDF i sidebar - Chat med dokumenter (pdf, csv, txt, md, docx) Understøttede udbydere: - Ollama - [Beta] Chrome AI (Gemini Nano) - [BETA] Understøttelse af OpenAI-kompatibelt API (LM Studio, Llamafile, vLLM og mange flere udbydere).
Oplysninger
- Version1.5.61
- Opdateret12. april 2026
- Udbydes afMuhammed Nazeem
- Størrelse6.54MiB
- Sprog14 sprog
- Udvikler
Mail
nazeemnob17@gmail.com - Ikke forhandlerDenne udgiver har ikke angivet sig selv om forhandler. Hvis du er kunde i EU, skal du være opmærksom på, at forbrugerrettighederne ikke gælder for kontrakter, der indgås mellem dig og denne udgiver.
Privatliv
Denne udvikler bekræfter, at dine data:
- Ikke sælges til tredjeparter uden et godkendt anvendelsesformål
- Ikke anvendes eller overføres til formål, der ikke er relevante i forhold til elementets hovedformål
- Ikke anvendes eller overføres til at fastlægge kreditværdighed eller lånerelaterede formål