Firefox 브라우저 부가 기능
  • 확장 기능
  • 테마
    • Firefox용
    • 사전 및 언어 팩
    • 다른 브라우저 사이트
    • Android 부가 기능
로그인
Ollama Client 미리보기

Ollama Client 제작자: Shishir Chaurasiya

Privacy-first Ollama Chrome extension to chat with local AI models like LLaMA, Mistral, Gemma — fully offline.

5 (리뷰 2개)5 (리뷰 2개)
사용자 188명사용자 188명
Firefox를 다운로드하고 확장 기능을 받으세요
파일 다운로드

확장 메타 데이터

정보
Ollama Client – Local LLM Chat in Your Browser (Multi‑Provider)
A privacy‑first, offline AI chat experience for local LLMs with multi‑provider support.
No cloud inference. No data leaving your machine.

What It Is
Ollama Client is a browser‑based frontend UI for local LLM servers. It connects to your self‑hosted LLM backend and lets you chat inside your browser. Supports Ollama, LM Studio, and llama.cpp servers.

Key Features
- Provider & model management: connect multiple local servers, switch models, view provider status
- Chat & session management: streaming responses, stop/regenerate, session history
- File & webpage context: local file attachments and optional page context for better answers
- Customisation & performance: prompt templates, model parameters, responsive UI
- Privacy & local storage: data stored locally; no external transfer required

Supported Providers
- Ollama (Ollama UI)
- LM Studio (LM Studio client)
- llama.cpp servers (OpenAI‑compatible local endpoints / llama.cpp UI)

Privacy & Local‑Only Guarantee
- No cloud inference
- No external data transfer
- All data stays on your machine and local network

Who It’s For
- Developers working with local AI models
- Researchers evaluating self‑hosted LLMs
- Students learning with offline AI chat
- Privacy‑conscious users who avoid cloud services

Setup Summary
1) Install the extension
2) Run a supported local LLM server
3) Connect via localhost or your LAN IP
4) Start chatting

Disclaimer
- Performance depends on your hardware and the backend server
- The extension does not include models or run inference itself

Useful Links
Chrome Web Store: https://chromewebstore.google.com/detail/ollama-client/bfaoaaogfcgomkjfbmfepbiijmciinjl
Setup Guide: https://ollama-client.shishirchaurasiya.in/ollama-setup-guide
Landing Page: https://ollama-client.shishirchaurasiya.in/
Privacy Policy: https://ollama-client.shishirchaurasiya.in/privacy-policy
GitHub: https://github.com/Shishir435/ollama-client
Bug: https://github.com/Shishir435/ollama-client/issues

Start chatting in seconds — private, fast, and fully local AI conversations on your own machine.

Built for developers, researchers, and anyone who values speed, privacy, and offline AI control.

ollama #privacy #olama-client #opensource #offline #ollama-ui #ollamachat #gpt-oss #lm-studio #llama.cpp
2명이 5점으로 평가함
로그인하여 이 확장 기능의 평점을 남겨주세요
아직 평점이 없습니다

별점 저장됨

5
2
4
0
3
0
2
0
1
0
리뷰 2개 모두 읽기
권한 및 데이터

필수 권한:

  • 모든 페이지의 콘텐츠 차단
  • 브라우저 탭에 접근
  • 모든 웹사이트에서 사용자의 데이터에 접근
더 알아보기
추가 정보
부가 기능 링크
  • 홈 페이지
  • 지원 사이트
  • 지원 이메일
  • Copy add-on ID
버전
0.6.2
크기
1.89 MB
마지막 업데이트
한 달 전 (2026년 4월 5일)
관련 카테고리
  • 웹 개발 도구
  • 개인 정보 보호 및 보안
라이선스
MIT 라이선스
개인정보처리방침
이 부가 기능에 대한 개인정보처리방침 읽기
버전 목록
  • 모든 버전 보기
태그
  • chat
  • privacy
  • youtube
모음집에 추가
이 부가 기능 신고
Mozilla 홈페이지로 이동

부가 기능

  • 소개
  • Firefox 부가 기능 블로그
  • 확장 기능 워크샵
  • 개발자 허브
  • 개발자 정책
  • 커뮤니티 블로그
  • 포럼
  • 버그 신고
  • 리뷰 지침

브라우저

  • Desktop
  • Mobile
  • Enterprise

제품

  • Browsers
  • VPN
  • Relay
  • Monitor
  • Pocket
  • Bluesky (@firefox.com)
  • Instagram (Firefox)
  • YouTube (firefoxchannel)
  • 개인 정보
  • 쿠키
  • 법률

특별한 고지가 없는 한, 본 사이트의 콘텐츠는 Commons Attribution Share-Alike License v3.0 또는 그 이후 버전에 따라 사용이 허가됩니다.