Autohospedagem OllamaGateway

Sobre o OllamaGateway

O OllamaGateway foi construído para infraestruturas de IA privadas. Se pretende autenticação de API, auditoria de pedidos, modelos virtuais e controlos adequados para equipas sobre o Ollama, a implementação local é a forma recomendada de o executar.

Recomendado
Executar no Docker

Primeiro, instale o Docker. Depois, execute os seguintes comandos num shell Linux:

image=aiursoft/ollamagateway
appName=ollamagateway
sudo docker pull $image
sudo docker run -d --name $appName --restart unless-stopped -p 5000:5000 -v /var/www/$appName:/data $image

Isso irá iniciar um servidor web em http://localhost:5000 e poderá testar a aplicação.

O nome de utilizador predefinido é: admin@default.com, e a senha padrão é: admin123.

Contexto do Contentor
Propriedade Valor
Imagem aiursoft/ollamagateway
Portas 5000
Caminho do binário /app
Caminho de dados /data
Caminho de configuração /data/appsettings.json
Executar no Ubuntu

O seguinte script irá instalar/atualizar esta aplicação no seu servidor Ubuntu. Suporta o Ubuntu 25.04.

curl -sL https://github.com/aiursoftweb/ollamaGateway/raw/master/install.sh | sudo bash

Ou com uma porta personalizada:

curl -sL https://github.com/aiursoftweb/ollamaGateway/raw/master/install.sh | sudo bash -s 8080
Systemd /opt/apps
Porquê de implantar localmente

Mantenha as instruções, chaves de API, registos de utilização e roteamento de modelos dentro dos limites da sua própria infraestrutura.

Isto é especialmente útil quando serve uma equipa, ferramentas internas ou agentes autónomos através de um endpoint compatível com OpenAI.

Desenvolvimento e Execução Manual
Pré-requisitos
Execução Manual
  1. Execute `npm install` na pasta `wwwroot` para instalar as dependências.
  2. Execute `dotnet run` para executar a aplicação.
  3. Visite http://localhost:5000.
Executar no Visual Studio
  1. Abra o ficheiro `.sln` no caminho do projeto.
  2. Pressione `F5` para executar a aplicação.