Autohospedado OllamaGateway

Acerca de OllamaGateway

OllamaGateway está diseñado para infraestructuras de IA privadas. Si desea autenticación de API, auditoría de solicitudes, modelos virtuales y controles adecuados para equipos sobre Ollama, el despliegue local es la forma recomendada de ejecutarlo.

Recomendado
Ejecutar en Docker

Primero, instale Docker. Luego ejecute los siguientes comandos en una terminal de Linux:

image=aiursoft/ollamagateway
appName=ollamagateway
sudo docker pull $image
sudo docker run -d --name $appName --restart unless-stopped -p 5000:5000 -v /var/www/$appName:/data $image

Esto iniciará un servidor web en http://localhost:5000 y podrás probar la aplicación.

El nombre de usuario predeterminado es: admin@default.com, y la contraseña predeterminada es: admin123.

Contexto del contenedor
Propiedad Valor
Imagen aiursoft/ollamagateway
Puertos 5000
Ruta del binario /app
Ruta de datos /data
Ruta de configuración /data/appsettings.json
Ejecutar en Ubuntu

El siguiente script instalará/actualizará esta aplicación en su servidor Ubuntu. Compatible con Ubuntu 25.04.

curl -sL https://github.com/aiursoftweb/ollamaGateway/raw/master/install.sh | sudo bash

O con un puerto personalizado:

curl -sL https://github.com/aiursoftweb/ollamaGateway/raw/master/install.sh | sudo bash -s 8080
Systemd /opt/apps
¿Por qué despliegue local?

Mantenga los mensajes, las claves de API, los registros de uso y el enrutamiento del modelo dentro de los límites de su propia infraestructura.

Esto es especialmente útil cuando se sirve a un equipo, herramientas internas o agentes autónomos a través de un endpoint compatible con OpenAI.

Desarrollo y ejecución manual
Requisitos previos
Ejecución manual
  1. Ejecuta `npm install` en la carpeta `wwwroot` para instalar las dependencias.
  2. Ejecuta `dotnet run` para ejecutar la aplicación.
  3. Visite http://localhost:5000.
Ejecutar en Visual Studio
  1. Abre el archivo `.sln` en la ruta del proyecto.
  2. Presiona `F5` para ejecutar la aplicación.