로컬 LLM을 ChatGPT처럼 쓸 수 있게 해주는 오픈소스 웹 인터페이스. Ollama와 함께 로컬 AI 스택의 사실상 표준 프론트엔드로 자리잡았다.
Ollama로 로컬에 LLM을 띄우면 터미널에서만 대화할 수 있다. 대화 기록도 안 남고, 모델을 바꾸려면 명령어를 다시 쳐야 한다. Open WebUI는 이 불편함을 해결하는 브라우저 기반 채팅 인터페이스다. ChatGPT 쓰듯이 대화하고, 기록이 남고, 모델을 드롭다운으로 바꾸고, 파일을 업로드해서 질문할 수 있다. 데이터가 외부로 나가지 않아 프라이버시가 보장된다.
GitHub 스타 9만 개 이상, Docker 풀 수 2.8억 회를 넘기며 로컬 AI의 표준 프론트엔드가 됐다.
설치는 Docker 한 줄이면 끝난다. docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main을 실행하고 브라우저에서 접속하면 된다. Ollama가 같은 머신에서 돌고 있으면 자동으로 연결된다.
내장 RAG 엔진으로 문서를 업로드하면 자동 인덱싱되어 모델이 참고해 답변한다. 멀티유저를 지원하기 때문에 팀에서 하나의 인스턴스를 공유할 수 있고, 역할 기반 접근 제어(RBAC)로 관리자와 일반 사용자를 분리한다.
Open WebUI 자체는 모델을 실행하지 않는다. 반드시 Ollama 같은 백엔드가 별도로 필요하다.