Gazduire proprie OllamaGateway

Despre OllamaGateway

OllamaGateway este construit pentru infrastructura de AI privată. Dacă doriți autentificare API, auditarea cererilor, modele virtuale și controale prietenoase pentru echipe peste Ollama, implementarea locală este metoda recomandată pentru a-l rula.

Recomandat
Execută în Docker

Mai întâi, instalați Docker. Ap rulează următoarele comenzi într-un shell Linux:

image=aiursoft/ollamagateway
appName=ollamagateway
sudo docker pull $image
sudo docker run -d --name $appName --restart unless-stopped -p 5000:5000 -v /var/www/$appName:/data $image

Acest lucru va porni un server web la http://localhost:5000 și puteți testa aplicația.

Numele de utilizator implicit este: admin@default.com, și parola implicită este: admin123.

Context container
Proprietate Valoare
Imagine aiursoft/ollamagateway
Porte 5000
Calea binarului /app
Calea datelor /data
Calea de configurare /data/appsettings.json
Executare în Ubuntu

Scriptul următor va instala/actualiza această aplicație pe serverul dvs. Ubuntu. Suportă Ubuntu 25.04.

curl -sL https://github.com/aiursoftweb/ollamaGateway/raw/master/install.sh | sudo bash

Sau cu un port personalizat:

curl -sL https://github.com/aiursoftweb/ollamaGateway/raw/master/install.sh | sudo bash -s 8080
Systemd /opt/apps
De ce implementare locală

Păstrați solicitările, cheile API, jurnalele de utilizare și rutarea modelelor în interiorul granițelor propriei infrastructuri.

Acest lucru este deosebit de util atunci când se servește un echip, instrumente interne sau agenți autonomi printr-un endpoint compatibil OpenAI.

Dezvoltare și executare manuală
Prerequisites
Executare manuală
  1. Executați `npm install` în folderul `wwwroot` pentru a instala dependențele.
  2. Executați `dotnet run` pentru a rula aplicația.
  3. Accesați http://localhost:5000.
Executare în Visual Studio
  1. Deschideți fișierul `.sln` din calea proiectului.
  2. Apăsați `F5` pentru a rula aplicația.