Selvhostet OllamaGateway

Om OllamaGateway

OllamaGateway er bygget til privat AI-infrastruktur. Hvis du ønsker API-autentificering, anmodningsrevision, virtuelle modeller og team-venlige kontrolmuligheder ud over Ollama, er lokal deployment den anbefalede måde at køre det på.

Anbefalet
Kør i Docker

Først installerer du Docker. Kør derefter følgende kommandoer i en Linux-shell:

image=aiursoft/ollamagateway
appName=ollamagateway
sudo docker pull $image
sudo docker run -d --name $appName --restart unless-stopped -p 5000:5000 -v /var/www/$appName:/data $image

Det vil starte en webserver på http://localhost:5000, og du kan teste appen.

Brugernavnet er som standard: admin@default.com, og adgangskoden er: admin123.

Beholder-kontekst
Egenskab Værdi
Billede aiursoft/ollamagateway
Ports 5000
Binær sti /app
Datapath /data
Konfigurationssti /data/appsettings.json
Kør i Ubuntu

Følgende script installerer/opdaterer denne app på din Ubuntu-server. Understøtter Ubuntu 25.04.

curl -sL https://github.com/aiursoftweb/ollamaGateway/raw/master/install.sh | sudo bash

Eller med en brugerdefineret port:

curl -sL https://github.com/aiursoftweb/ollamaGateway/raw/master/install.sh | sudo bash -s 8080
Systemd /opt/apps
Hvorfor lokal udrulning

Behold prompts, API-nøgler, brugslogs og modelrouting inden for din egen infrastrukturgrænse.

Dette er især nyttigt, når du betjener et team, interne værktøjer eller autonome agenters over et OpenAI-kompatibelt endpoint.

Udvikling og manuel kørsel
Forudsætninger
Kør manuelt
  1. Udfør `npm install` i `wwwroot`-mappen for at installere afhængigheder.
  2. Kør `dotnet run` for at køre appen.
  3. Besøg http://localhost:5000.
Kør i Visual Studio
  1. Åbn `.sln`-filen i projektstien.
  2. Tryk `F5` for at køre appen.