Selbsthosting OllamaGateway

Über OllamaGateway

OllamaGateway wurde für eine private KI-Infrastruktur entwickelt. Wenn Sie API-Authentifizierung, Anforderungsprüfung, virtuelle Modelle und teamfreundliche Kontrollen zusätzlich zu Ollama wünschen, ist eine lokale Bereitstellung der empfohlene Weg, es auszuführen.

Empfohlen
In Docker ausführen

Zuerst Docker installieren. Führen Sie dann die folgenden Befehle in einer Linux-Shell aus:

image=aiursoft/ollamagateway
appName=ollamagateway
sudo docker pull $image
sudo docker run -d --name $appName --restart unless-stopped -p 5000:5000 -v /var/www/$appName:/data $image

Das startet einen Webserver unter http://localhost:5000, und Sie können die App testen.

Der Standardbenutzername lautet: admin@default.com, und das Standardpasswort ist: admin123.

Container-Kontext
Eigenschaft Wert
Image aiursoft/ollamagateway
Ports 5000
Binärpfad /app
Datapfad /data
Konfigurationspfad /data/appsettings.json
Unter Ubuntu ausführen

Das folgende Skript installiert bzw. aktualisiert diese App auf Ihrem Ubuntu-Server. Unterstützt Ubuntu 25.04.

curl -sL https://github.com/aiursoftweb/ollamaGateway/raw/master/install.sh | sudo bash

Oder mit einem benutzerdefinierten Port:

curl -sL https://github.com/aiursoftweb/ollamaGateway/raw/master/install.sh | sudo bash -s 8080
Systemd /opt/apps
Warum lokale Bereitstellung

Bewahren Sie Prompts, API-Schlüssel, Nutzungsprotokolle und Modell-Routing innerhalb Ihrer eigenen Infrastrukturgrenzen.

Dies ist besonders nützlich, wenn einem Team, internen Tools oder autonomen Agenten über einen OpenAI-kompatiblen Endpunkt Bedienung angeboten wird.

Entwicklung & Manuelles Ausführen
Voraussetzungen
Manuell ausführen
  1. Führen Sie `npm install` im `wwwroot`-Ordner aus, um die Abhängigkeiten zu installieren.
  2. Führen Sie `dotnet run` aus, um die App auszuführen.
  3. Besuchen Sie http://localhost:5000.
In Visual Studio ausführen
  1. Öffnen Sie die `.sln`-Datei im Projekt Pfad.
  2. Drücken Sie `F5`, um die App auszuführen.