Page Assist - Et Web UI for at kjøre AI-modeller lokalt
Oversikt
Bruk dine lokalt kjørende AI-modeller til at hjælpe dig med at surfe på nettet.
Page Assist - En sidemeny og webgrensesnitt for dine lokale AI-modeller Bruk dine egne AI-modeller som kjører lokalt for å samhandle mens du surfer, eller som et webgrensesnitt for din lokale AI-modellleverandør som Ollama, Chrome AI, osv. Repo: https://github.com/n4ze3m/page-assist Nåværende funksjoner: - Sidemeny for ulike oppgaver - Støtte for visuelle modeller - Et minimalistisk webgrensesnitt for lokale AI-modeller - Internett-søk - Chat med PDF i sidemenyen - Chat med dokumenter (pdf, csv, txt, md, docx) Støttede leverandører: - Ollama - [Beta] Chrome AI (Gemini Nano) - [BETA] OpenAI-kompatibel API-støtte (LM Studio, Llamafile, vLLM og mange flere leverandører).
Detaljer
- Versjon1.5.60
- Oppdatert5. april 2026
- Levert avMuhammed Nazeem
- Størrelse6.53MiB
- Språk14 språk
- Utvikler
E-post
nazeemnob17@gmail.com - Ikke-ervervsdrivendeDenne utvikleren har ikke identifisert seg selv som næringsdrivende. For forbrukere i EU gjelder ikke forbrukerrettighetene for kontrakter som er gjort mellom deg og denne utvikleren.
Personvern
Denne utvikleren erklærer at dataene dine
- ikke selges til tredjeparter, med unntak for de godkjente bruksområdene
- ikke brukes eller overføres for formål som ikke er relatert til varens kjernefunksjonalitet
- ikke brukes eller overføres for å fastslå kredittverdighet eller for låneformål