자가 호스팅 OllamaGateway

OllamaGateway 소개

OllamaGateway는 개인 AI 인프라를 위해 구축되었습니다. Ollama 위에 API 인증, 요청 감사, 가상 모델 및 팀 친화적 제어 기능을 원하신다면, 로컬 배포가 실행을 위한 권장 방법입니다.

추천
Docker 에서 실행

먼저 Docker 를 설치한 다음, 리눅스 셸에서 다음 명령을 실행하세요:

image=aiursoft/ollamagateway
appName=ollamagateway
sudo docker pull $image
sudo docker run -d --name $appName --restart unless-stopped -p 5000:5000 -v /var/www/$appName:/data $image

이렇게 하면 http://localhost:5000 에서 웹 서버가 시작되며 앱을 테스트할 수 있습니다.

기본 사용자 이름은: admin@default.com, 기본 비밀번호는: admin123.

컨텍스트 컨테이너
속성
이미지 aiursoft/ollamagateway
포트 5000
바이너리 경로 /app
데이터 경로 /data
설정 파일 경로 /data/appsettings.json
우분투에서 실행

다음 스크립트는 Ubuntu 서버에 이 앱을 설치하거나 업데이트합니다. Ubuntu 25.04를 지원합니다.

curl -sL https://github.com/aiursoftweb/ollamaGateway/raw/master/install.sh | sudo bash

또는 커스텀 포트를 사용하려면:

curl -sL https://github.com/aiursoftweb/ollamaGateway/raw/master/install.sh | sudo bash -s 8080
Systemd /opt/apps
로컬 배포가 필요한 이유

프롬프트, API 키, 사용 로그 및 모델 라우팅을 자체 인프라 경계 내에 유지하세요.

이는 팀, 내부 도구, 또는 OpenAI 호환 엔드포인트를 통해 자율 에이전트를 제공할 때 특히 유용합니다.

개발 및 수동 실행
사전 조건
수동 실행
  1. `npm install` 명령어를 `wwwroot` 폴더에서 실행하여 종속성을 설치하세요.
  2. `dotnet run` 명령을 실행하여 앱을 실행합니다.
  3. http://localhost:5000으로 이동하세요.
Visual Studio 에서 실행
  1. 프로젝트 경로에서 `.sln` 파일을 엽니다.
  2. 앱을 실행하려면 `F5` 를 누르세요.