استضافة ذاتية OllamaGateway

حول OllamaGateway

تم تصميم OllamaGateway للبنية التحتية للذكاء الاصطناعي الخاصة. إذا كنت ترغب في مصادقة API، ومراجعة الطلبات، ونماذج افتراضية، وتحكمات صديقة للفريق فوق Ollama، فإن النشر المحلي هو الطريقة الموصى بها لتشغيله.

موصى به
تشغيل في Docker

أولاً، قم بتثبيت Docker. ثم قم بتشغيل الأوامر التالية في طرفية Linux:

image=aiursoft/ollamagateway
appName=ollamagateway
sudo docker pull $image
sudo docker run -d --name $appName --restart unless-stopped -p 5000:5000 -v /var/www/$appName:/data $image

سيؤدي ذلك إلى بدء خادم ويب على http://localhost:5000 ويمكنك اختبار التطبيق.

اسم المستخدم الافتراضي هو: admin@default.com, و كلمة المرور الافتراضية هي: admin123.

سياق الحاوية
الخاصية القيمة
الصورة aiursoft/ollamagateway
الموانئ 5000
مسار الثنائي /app
مسار البيانات /data
مسار التكوين /data/appsettings.json
تشغيل في أوبونتو

سيتم تثبيت/تحديث هذا التطبيق على خادم Ubuntu الخاص بك باستخدام السcript التالي. يدعم Ubuntu 25.04.

curl -sL https://github.com/aiursoftweb/ollamaGateway/raw/master/install.sh | sudo bash

أو مع منفذ مخصص:

curl -sL https://github.com/aiursoftweb/ollamaGateway/raw/master/install.sh | sudo bash -s 8080
Systemd /opt/apps
لماذا النشر المحلي

احتفظ بالطلبات، ومفاتيح واجهة برمجة التطبيقات، وسجلات الاستخدام، وتوجيه النماذج داخل حدود البنية التحتية الخاصة بك.

هذا مفيد بشكل خاص عند تقديم فريق، أو أدوات داخلية، أو وكلاء مستقلين عبر نقطة نهاية متوافقة مع OpenAI.

التطوير والتشغيل اليدوي
المتطلبات
التشغيل يدويًا
  1. قم بتنفيذ `npm install` في مجلد `wwwroot` لتثبيت التبعيات.
  2. قم بتنفيذ `dotnet run` لتشغيل التطبيق.
  3. قم بزيارة http://localhost:5000.
تشغيل في Visual Studio
  1. افتح ملف `.sln` في مسار المشروع.
  2. اضغط على `F5` لتشغيل التطبيق.