Самохостинг OllamaGateway
О OllamaGateway
OllamaGateway создан для частной инфраструктуры ИИ. Если вам требуется аутентификация API, аудит запросов, виртуальные модели и удобные для команд управления над Ollama, рекомендуемый способ запуска — локальное развертывание.
Запуск в Docker
Сначала установите Docker. Затем выполните следующие команды в оболочке Linux:
image=aiursoft/ollamagateway
appName=ollamagateway
sudo docker pull $image
sudo docker run -d --name $appName --restart unless-stopped -p 5000:5000 -v /var/www/$appName:/data $image
Это запустит веб-сервер по адресу http://localhost:5000, и вы сможете протестировать приложение.
Стандартное имя пользователя: admin@default.com, и пароль по умолчанию: admin123.
Контекст контейнера
| Свойство | Значение |
|---|---|
| Образ | aiursoft/ollamagateway |
| Порты | 5000 |
| Путь к бинарному файлу | /app |
| Путь к данным | /data |
| Путь конфигурации | /data/appsettings.json |
Запуск в Ubuntu
Следующий скрипт установит или обновит это приложение на вашем сервере Ubuntu. Поддерживается Ubuntu 25.04.
curl -sL https://github.com/aiursoftweb/ollamaGateway/raw/master/install.sh | sudo bash
Или с кастомным портом:
curl -sL https://github.com/aiursoftweb/ollamaGateway/raw/master/install.sh | sudo bash -s 8080
Почему локальное развертывание
Храните промпты, ключи API, логи использования и маршрутизацию моделей внутри границ вашей собственной инфраструктуры.
Это особенно полезно при обслуживании команды, внутренних инструментов или автономных агентов через совместимый с OpenAI конечный пункт.
Разработка и ручной запуск
Требования
Запуск вручную
- Выполните `npm install` в папке `wwwroot` для установки зависимостей.
- Выполните `dotnet run`, чтобы запустить приложение.
- Перейдите по адресу http://localhost:5000.
Запуск в Visual Studio
- Откройте файл `.sln` в пути проекта.
- Нажмите `F5`, чтобы запустить приложение.