Własny serwer OllamaGateway
Polecane
Uruchom w Docker
Najpierw zainstaluj Docker. Następnie uruchom następujące polecenia w powłoce systemu Linux:
image=aiursoft/ollamagateway
appName=ollamagateway
sudo docker pull $image
sudo docker run -d --name $appName --restart unless-stopped -p 5000:5000 -v /var/www/$appName:/data $image
Spowoduje to uruchomienie serwera sieciowego pod adresem http://localhost:5000, gdzie będziesz mógł przetestować aplikację.
Domyślna nazwa użytkownika to: admin@default.com, a domyślne hasło to: admin123.
Kontekst kontenera
| Właściwość | Wartość |
|---|---|
| Obraz | aiursoft/ollamagateway |
| Porty | 5000 |
| Ścieżka do pliku wykonywalnego | /app |
| Ścieżka danych | /data |
| Ścieżka konfiguracji | /data/appsettings.json |
Uruchom w Ubuntu
Poniższy skrypt zainstaluje lub zaktualizuje tę aplikację na serwerze Ubuntu. Obsługuje Ubuntu 25.04.
curl -sL https://github.com/aiursoftweb/ollamaGateway/raw/master/install.sh | sudo bash
lub z niestandardowym portem:
curl -sL https://github.com/aiursoftweb/ollamaGateway/raw/master/install.sh | sudo bash -s 8080
Systemd
/opt/apps
Dlaczego wdrożenie lokalne
Przechowuj podpowiedzi, klucze API, dzienniki użytkowania i trasowanie modeli wewnątrz granic własnej infrastruktury.
Jest to szczególnie przydatne w przypadku obsługi zespołu, narzędzi wewnętrznych lub autonomicznych agentów przez endpoint zgodny z OpenAI.
Rozwój i uruchomienie ręczne
Wymagania wstępne
Uruchom ręcznie
- Wykonaj polecenie `npm install` w folderze `wwwroot`, aby zainstalować zależności.
- Wykonaj polecenie `dotnet run`, aby uruchomić aplikację.
- Odwiedź http://localhost:5000.
Uruchom w Visual Studio
- Otwórz plik `.sln` w ścieżce projektu.
- Naciśnij `F5`, aby uruchomić aplikację.