Autohospedado OllamaGateway
Acerca de OllamaGateway
OllamaGateway está diseñado para infraestructuras de IA privadas. Si desea autenticación de API, auditoría de solicitudes, modelos virtuales y controles adecuados para equipos sobre Ollama, el despliegue local es la forma recomendada de ejecutarlo.
Ejecutar en Docker
Primero, instale Docker. Luego ejecute los siguientes comandos en una terminal de Linux:
image=aiursoft/ollamagateway
appName=ollamagateway
sudo docker pull $image
sudo docker run -d --name $appName --restart unless-stopped -p 5000:5000 -v /var/www/$appName:/data $image
Esto iniciará un servidor web en http://localhost:5000 y podrás probar la aplicación.
El nombre de usuario predeterminado es: admin@default.com, y la contraseña predeterminada es: admin123.
Contexto del contenedor
| Propiedad | Valor |
|---|---|
| Imagen | aiursoft/ollamagateway |
| Puertos | 5000 |
| Ruta del binario | /app |
| Ruta de datos | /data |
| Ruta de configuración | /data/appsettings.json |
Ejecutar en Ubuntu
El siguiente script instalará/actualizará esta aplicación en su servidor Ubuntu. Compatible con Ubuntu 25.04.
curl -sL https://github.com/aiursoftweb/ollamaGateway/raw/master/install.sh | sudo bash
O con un puerto personalizado:
curl -sL https://github.com/aiursoftweb/ollamaGateway/raw/master/install.sh | sudo bash -s 8080
¿Por qué despliegue local?
Mantenga los mensajes, las claves de API, los registros de uso y el enrutamiento del modelo dentro de los límites de su propia infraestructura.
Esto es especialmente útil cuando se sirve a un equipo, herramientas internas o agentes autónomos a través de un endpoint compatible con OpenAI.
Desarrollo y ejecución manual
Requisitos previos
Ejecución manual
- Ejecuta `npm install` en la carpeta `wwwroot` para instalar las dependencias.
- Ejecuta `dotnet run` para ejecutar la aplicación.
- Visite http://localhost:5000.
Ejecutar en Visual Studio
- Abre el archivo `.sln` en la ruta del proyecto.
- Presiona `F5` para ejecutar la aplicación.