Auto-hospedado OllamaGateway

Sobre o OllamaGateway

O OllamaGateway foi construído para infraestrutura de IA privada. Se você deseja autenticação de API, auditoria de solicitações, modelos virtuais e controles amigáveis para equipes além do Ollama, a implantação local é a maneira recomendada de executá-lo.

Recomendado
Executar no Docker

Primeiro, instale o Docker. Em seguida, execute os seguintes comandos em um shell Linux:

image=aiursoft/ollamagateway
appName=ollamagateway
sudo docker pull $image
sudo docker run -d --name $appName --restart unless-stopped -p 5000:5000 -v /var/www/$appName:/data $image

Isso iniciará um servidor web em http://localhost:5000 e você poderá testar o aplicativo.

O nome de usuário padrão é: admin@default.com, e a senha padrão é: admin123.

Contexto do Contêiner
Propriedade Valor
Imagem aiursoft/ollamagateway
Portas 5000
Caminho do binário /app
Caminho de dados /data
Caminho de configuração /data/appsettings.json
Executar no Ubuntu

O script a seguir instalará/atualizará este aplicativo em seu servidor Ubuntu. Suporta Ubuntu 25.04.

curl -sL https://github.com/aiursoftweb/ollamaGateway/raw/master/install.sh | sudo bash

Ou com uma porta personalizada:

curl -sL https://github.com/aiursoftweb/ollamaGateway/raw/master/install.sh | sudo bash -s 8080
Systemd /opt/apps
Por que implantação local

Mantenha os prompts, as chaves de API, os logs de uso e o roteamento de modelos dentro dos limites da sua própria infraestrutura.

Isso é especialmente útil ao servir uma equipe, ferramentas internas ou agentes autônomos por meio de um endpoint compatível com OpenAI.

Desenvolvimento e Execução Manual
Pré-requisitos
Execução Manual
  1. Execute `npm install` na pasta `wwwroot` para instalar as dependências.
  2. Execute `dotnet run` para executar o aplicativo.
  3. Acesse http://localhost:5000.
Executar no Visual Studio
  1. Abra o arquivo `.sln` no caminho do projeto.
  2. Pressione `F5` para executar o aplicativo.