Gazduire proprie OllamaGateway
Despre OllamaGateway
OllamaGateway este construit pentru infrastructura de AI privată. Dacă doriți autentificare API, auditarea cererilor, modele virtuale și controale prietenoase pentru echipe peste Ollama, implementarea locală este metoda recomandată pentru a-l rula.
Execută în Docker
Mai întâi, instalați Docker. Ap rulează următoarele comenzi într-un shell Linux:
image=aiursoft/ollamagateway
appName=ollamagateway
sudo docker pull $image
sudo docker run -d --name $appName --restart unless-stopped -p 5000:5000 -v /var/www/$appName:/data $image
Acest lucru va porni un server web la http://localhost:5000 și puteți testa aplicația.
Numele de utilizator implicit este: admin@default.com, și parola implicită este: admin123.
Context container
| Proprietate | Valoare |
|---|---|
| Imagine | aiursoft/ollamagateway |
| Porte | 5000 |
| Calea binarului | /app |
| Calea datelor | /data |
| Calea de configurare | /data/appsettings.json |
Executare în Ubuntu
Scriptul următor va instala/actualiza această aplicație pe serverul dvs. Ubuntu. Suportă Ubuntu 25.04.
curl -sL https://github.com/aiursoftweb/ollamaGateway/raw/master/install.sh | sudo bash
Sau cu un port personalizat:
curl -sL https://github.com/aiursoftweb/ollamaGateway/raw/master/install.sh | sudo bash -s 8080
De ce implementare locală
Păstrați solicitările, cheile API, jurnalele de utilizare și rutarea modelelor în interiorul granițelor propriei infrastructuri.
Acest lucru este deosebit de util atunci când se servește un echip, instrumente interne sau agenți autonomi printr-un endpoint compatibil OpenAI.
Dezvoltare și executare manuală
Prerequisites
Executare manuală
- Executați `npm install` în folderul `wwwroot` pentru a instala dependențele.
- Executați `dotnet run` pentru a rula aplicația.
- Accesați http://localhost:5000.
Executare în Visual Studio
- Deschideți fișierul `.sln` din calea proiectului.
- Apăsați `F5` pentru a rula aplicația.