セルフホスト OllamaGateway

OllamaGateway について

OllamaGateway はプライベートな AI インフラストラクチャのために構築されています。Ollama 上に API 認証、リクエスト監査、仮想モデル、チームに優しいコントロールを追加したい場合は、ローカルデプロイが推奨の実行方法です。

推奨
Docker で実行

まず、Dockerをインストールしてください。その後、Linuxシェルで以下のコマンドを実行してください:

image=aiursoft/ollamagateway
appName=ollamagateway
sudo docker pull $image
sudo docker run -d --name $appName --restart unless-stopped -p 5000:5000 -v /var/www/$appName:/data $image

これにより、http://localhost:5000 で Web サーバーが起動し、アプリをテストできます。

デフォルトのユーザー名は: admin@default.com, デフォルトのパスワードは: admin123.

コンテナコンテキスト
プロパティ
イメージ aiursoft/ollamagateway
ポート 5000
バイナリパス /app
データパス /data
設定ファイルパス /data/appsettings.json
Ubuntu で実行

以下のスクリプトは、Ubuntu サーバー上のこのアプリをインストールまたは更新します。Ubuntu 25.04 に対応しています。

curl -sL https://github.com/aiursoftweb/ollamaGateway/raw/master/install.sh | sudo bash

または、カスタムポートを使用する:

curl -sL https://github.com/aiursoftweb/ollamaGateway/raw/master/install.sh | sudo bash -s 8080
Systemd /opt/apps
ローカル展開が必要な理由

プロンプト、API キー、使用ログ、およびモデルのルーティングを、ご自身のインフラストラクチャの境界内に保持してください。

これは、チーム、内部ツール、または自律型エージェントを OpenAI 互換エンドポイント経由で提供する場合に特に役立ちます。

開発と手動実行
前提条件
手動実行
  1. `npm install` を `wwwroot` フォルダで実行して、依存関係をインストールしてください。
  2. `dotnet run`を実行してアプリを実行します。
  3. http://localhost:5000 にアクセスしてください。
Visual Studio で実行
  1. プロジェクトのパスにある `.sln` ファイルを開きます。
  2. アプリを実行するには `F5` を押してください。