استضافة ذاتية OllamaGateway
حول OllamaGateway
تم تصميم OllamaGateway للبنية التحتية للذكاء الاصطناعي الخاصة. إذا كنت ترغب في مصادقة API، ومراجعة الطلبات، ونماذج افتراضية، وتحكمات صديقة للفريق فوق Ollama، فإن النشر المحلي هو الطريقة الموصى بها لتشغيله.
تشغيل في Docker
أولاً، قم بتثبيت Docker. ثم قم بتشغيل الأوامر التالية في طرفية Linux:
image=aiursoft/ollamagateway
appName=ollamagateway
sudo docker pull $image
sudo docker run -d --name $appName --restart unless-stopped -p 5000:5000 -v /var/www/$appName:/data $image
سيؤدي ذلك إلى بدء خادم ويب على http://localhost:5000 ويمكنك اختبار التطبيق.
اسم المستخدم الافتراضي هو: admin@default.com, و كلمة المرور الافتراضية هي: admin123.
سياق الحاوية
| الخاصية | القيمة |
|---|---|
| الصورة | aiursoft/ollamagateway |
| الموانئ | 5000 |
| مسار الثنائي | /app |
| مسار البيانات | /data |
| مسار التكوين | /data/appsettings.json |
تشغيل في أوبونتو
سيتم تثبيت/تحديث هذا التطبيق على خادم Ubuntu الخاص بك باستخدام السcript التالي. يدعم Ubuntu 25.04.
curl -sL https://github.com/aiursoftweb/ollamaGateway/raw/master/install.sh | sudo bash
أو مع منفذ مخصص:
curl -sL https://github.com/aiursoftweb/ollamaGateway/raw/master/install.sh | sudo bash -s 8080
لماذا النشر المحلي
احتفظ بالطلبات، ومفاتيح واجهة برمجة التطبيقات، وسجلات الاستخدام، وتوجيه النماذج داخل حدود البنية التحتية الخاصة بك.
هذا مفيد بشكل خاص عند تقديم فريق، أو أدوات داخلية، أو وكلاء مستقلين عبر نقطة نهاية متوافقة مع OpenAI.
التطوير والتشغيل اليدوي
المتطلبات
التشغيل يدويًا
- قم بتنفيذ `npm install` في مجلد `wwwroot` لتثبيت التبعيات.
- قم بتنفيذ `dotnet run` لتشغيل التطبيق.
- قم بزيارة http://localhost:5000.
تشغيل في Visual Studio
- افتح ملف `.sln` في مسار المشروع.
- اضغط على `F5` لتشغيل التطبيق.