Ollama: حوّل جهازك إلى خادم ذكاء اصطناعي خاص ومجاني – دليل المبرمجين 2025

استمع للبودكاست حوار شيق بين لمى وأبو عمر
0:00 / 0:00

مقدمة: صعود “Local AI” وأهميته للخصوصية والتطوير

بتذكر مرة، كنت شغال على مشروع تجريبي لشركة ناشئة، وكنا بحاجة نموذج لغوي كبير (LLM) عشان نطور مساعد افتراضي. طبعًا، أول خيار كان OpenAI، بس لما شفنا فاتورة الاستخدام بعد أسبوع، قلنا “يا لطيف! شو هاد؟!”. وقتها بلشت أدور على حلول بديلة، وكانت نقطة التحول لما اكتشفت الـ “Local AI” أو الذكاء الاصطناعي المحلي.

الـ “Local AI” ببساطة يعني تشغيل نماذج الذكاء الاصطناعي على جهازك الشخصي، سواء كان لابتوب، أو سيرفر محلي، أو حتى جهاز طرفي (Edge Device). هاد إله فوائد عظيمة، أهمها الخصوصية والأمان، لأن بياناتك ما بتطلع برا جهازك. كمان بيساعدك تتجنب فواتير الاستخدام المرتفعة، وبتصير عندك سيطرة كاملة على النموذج.

في عالم التطوير السريع، الـ “Local AI” صار ضرورة، مش رفاهية. تخيل تقدر تجرب وتطور نماذج الذكاء الاصطناعي بكل حرية، بدون ما تحسب ألف حساب لتكلفة الـ API أو تخاف على خصوصية بياناتك. هاد بالظبط اللي بتقدمهولنا أدوات زي Ollama.

التثبيت والاستخدام: دليل سريع لتشغيل أول نموذج (Llama 3) بسطر واحد

Ollama هي أداة بتخليك تشغل نماذج لغوية كبيرة (LLMs) على جهازك بسهولة. التثبيت بسيط جداً، والاستخدام أسهل منه. خلينا نشوف كيف ممكن نشغل نموذج Llama 3 بسطر واحد:

الخطوة الأولى: التثبيت

أول شي لازم تنزل Ollama من الموقع الرسمي: ollama.com. فيه نسخ لأنظمة التشغيل المختلفة (macOS, Linux, Windows).

بعد التنزيل، التثبيت بسيط جداً، مجرد تتبع التعليمات اللي بتظهرلك على الشاشة.

الخطوة الثانية: تشغيل Llama 3

بعد التثبيت، افتح الـ Terminal أو الـ Command Prompt، واكتب الأمر التالي:

ollama run llama3

أول مرة بتشغل النموذج، Ollama راح ينزل النموذج من الإنترنت. ممكن ياخد شوية وقت حسب سرعة الإنترنت عندك. ☕

بعد التنزيل، راح يشتغل النموذج، وتقدر تبدأ تسأله أسئلة وتجرب قدراته. جرب أسأله “What is the capital of France?” وشوف شو بجاوب. 😎

نصيحة من أبو عمر: إذا كان جهازك ضعيف، جرب نماذج أصغر حجمًا. Ollama بدعم مجموعة كبيرة من النماذج، مش بس Llama 3. شوف Ollama Library عشان تكتشف نماذج تانية.

التكامل البرمجي: كيفية استخدام مكتبات Python/JS للربط مع Ollama في تطبيقاتك

الأحلى في Ollama إنه بتقدر تستخدمه في تطبيقاتك الخاصة بسهولة. Ollama بيشتغل كخادم محلي (Localhost API)، يعني بتقدر تتواصل معاه من أي لغة برمجة بتدعم الـ HTTP requests.

Python

عشان تستخدم Ollama في Python، ممكن تستخدم مكتبة requests:

import requests
import json

url = "http://localhost:11434/api/generate"
headers = {
    "Content-Type": "application/json"
}
data = {
    "model": "llama3",
    "prompt": "Write a short story about a cat."
}

response = requests.post(url, headers=headers, data=json.dumps(data), stream=True)

for line in response.iter_lines():
    if line:
        decoded_line = line.decode('utf-8')
        json_line = json.loads(decoded_line)
        print(json_line['response'], end="")

الكود هاد بيرسل طلب لـ Ollama عشان يولد قصة قصيرة عن قطة، وبعدين بيطبع الجواب سطر بسطر. 🐱

JavaScript

في JavaScript، ممكن تستخدم الـ `fetch` API:

async function generateText() {
  const response = await fetch('http://localhost:11434/api/generate', {
    method: 'POST',
    headers: {
      'Content-Type': 'application/json'
    },
    body: JSON.stringify({
      model: 'llama3',
      prompt: 'Explain quantum physics in simple terms.'
    })
  });

  const reader = response.body.getReader();
  const decoder = new TextDecoder();

  while (true) {
    const { done, value } = await reader.read();
    if (done) {
      break;
    }
    const text = decoder.decode(value);
    console.log(text);
  }
}

generateText();

الكود هاد بيطلب من Ollama يشرح الفيزياء الكمية بطريقة بسيطة، وبعدين بيعرض الجواب في الـ console. ⚛️

نصيحة من أبو عمر: في مكتبات جاهزة بتسهل التعامل مع Ollama في لغات برمجة مختلفة. دور على مكتبات زي `ollama-python` أو `ollama-js` عشان توفر على حالك كتابة الكود من الصفر.

الجديد في 2025: دعم الرؤية (Vision) والواجهة الرسومية

في 2025، Ollama صار أقوى بكتير! صار بدعم الرؤية (Vision) والواجهة الرسومية. خلينا نشوف شو يعني هاد:

دعم الرؤية (Vision)

دعم الرؤية يعني إنه Ollama صار بيقدر يتعامل مع الصور والملفات. بتقدر تعطيه صورة، وتسأله عنها، أو تخليه يحلل ملف PDF. هاد فتح الباب لتطبيقات جديدة ومثيرة، زي:

  • تحليل الصور الطبية.
  • استخراج المعلومات من الفواتير والوثائق.
  • توليد أوصاف للمنتجات بناءً على صورها.

عشان تستخدم ميزة الرؤية، لازم تستخدم نموذج بدعم الوسائط المتعددة (Multimodal Model). في نماذج كتير بتدعم هاد الشي، دور على نماذج مكتوب عليها “Vision” أو “Multimodal” في Ollama Library.

الواجهة الرسومية (GUI)

الواجهة الرسومية خلت استخدام Ollama أسهل بكتير للمبتدئين. بدل ما تكتب أوامر في الـ Terminal، بتقدر تستخدم واجهة رسومية بسيطة عشان تنزل النماذج، وتشغلها، وتتفاعل معاها. هاد الشي ساعد في توسيع قاعدة مستخدمي Ollama بشكل كبير. 📈

Ollama Turbo

كمان في ميزة جديدة اسمها “Ollama Turbo”. هاي الميزة بتسمحلك تحمل المهام الثقيلة جداً على السحابة بشكل مؤقت. يعني إذا كان جهازك ضعيف، بتقدر تخلي Ollama يشغل النموذج على سيرفرات قوية في السحابة، وبعدين يرجعلك الجواب. هاد بيخليك تستخدم نماذج كبيرة ومعقدة بدون ما تحتاج جهاز قوي. 💪

الخلاصة: مستقبل التطوير الهجين (Local + Cloud)

Ollama غيرت قواعد اللعبة في عالم تطوير الذكاء الاصطناعي. صارت بتسمح للمطورين يجربوا ويطوروا نماذج الذكاء الاصطناعي بكل حرية، بدون قيود التكلفة أو الخصوصية. دعم الرؤية والواجهة الرسومية و Ollama Turbo في 2025 خلوها أداة لا غنى عنها لأي مبرمج مهتم بالذكاء الاصطناعي.

أنا شخصياً بشوف إنه المستقبل هو التطوير الهجين (Local + Cloud). يعني بتقدر تستخدم Ollama عشان تطور وتجرب نماذجك محلياً، وبعدين تنشرها على السحابة عشان توصل لأكبر عدد من المستخدمين. ☁️ + 💻 = ❤️

نصيحة من أبو عمر: لا تتردد تجرب Ollama! نزلها اليوم، وجرب تشغل نموذج، وشوف كيف بتقدر تستخدمها في مشاريعك. الذكاء الاصطناعي صار في متناول إيدك، استغل الفرصة!

أبو عمر

سجل دخولك لعمل نقاش تفاعلي

كافة المحادثات خاصة ولا يتم عرضها على الموقع نهائياً

آراء من النقاشات

لا توجد آراء منشورة بعد. كن أول من يشارك رأيه!

آخر المدونات

البنية التحتية وإدارة السيرفرات

كانت بنيتنا التحتية قصرًا من ورق: كيف أنقذنا Terraform من جحيم التغييرات اليدوية وانحراف الإعدادات؟

قصة حقيقية من قلب المعركة التقنية، حيث كانت سيرفراتنا تتهاوى بسبب التعديلات اليدوية. اكتشف كيف انتقلنا من الفوضى إلى النظام باستخدام Terraform ومفهوم البنية التحتية...

14 مايو، 2026 قراءة المزيد
ادارة الفرق والتنمية البشرية

المسار الوظيفي المزدوج: كيف أنقذنا خيرة مهندسينا من جحيم الاختيار بين الإدارة والكود؟

كان مهندسونا يغادرون صمتاً، واحداً تلو الآخر. لم تكن المشكلة في الراتب أو في المشروع، بل في سقف زجاجي يجبرهم على الاختيار بين شغفهم بالكود...

14 مايو، 2026 قراءة المزيد
اختبارات الاداء والجودة

كانت اختباراتنا تنهار عشوائياً: كيف أنقذنا Playwright من جحيم الاختبارات المتقشرة (Flaky Tests)؟

في هذه المقالة، أشارككم قصة حقيقية من خنادق البرمجة، حيث كانت اختباراتنا الآلية تنهار بشكل عشوائي ومحبط. سأغوص معكم في الأسباب الجذرية للاختبارات المتقشرة (Flaky...

14 مايو، 2026 قراءة المزيد
أدوات وانتاجية

كانت طرفيتي سجناً: كيف أنقذنا ‘الباحث التقريبي’ (Fuzzy Finder) من جحيم البحث في الـ History؟

أشارككم تجربتي الشخصية مع أداة fzf، الباحث التقريبي الذي حوّل طرفيتي من سجن للأوامر المتكررة إلى بيئة عمل فائقة الإنتاجية. اكتشفوا كيف يمكن لهذه الأداة...

14 مايو، 2026 قراءة المزيد
أتمتة العمليات

كانت عمليات النشر كابوساً: كيف أنقذتنا “خطوط أنابيب CI/CD” من جحيم “يوم النشر” اليدوي؟

أنا أبو عمر، مبرمج فلسطيني، وأروي لكم كيف انتقلنا من ليالي النشر اليدوي المليئة بالتوتر والأخطاء إلى عالم الأتمتة والثقة باستخدام خطوط أنابيب CI/CD. هذه...

14 مايو، 2026 قراءة المزيد
خوارزميات

كان البحث عن ‘الأماكن القريبة’ يقتل الأداء: كيف أنقذتنا ‘شجرة الكواد’ (Quadtree) من جحيم البحث الخطي؟

قصة حقيقية من قلب المعركة البرمجية، كيف انتقلنا من تطبيق بطيء ينهار تحت ضغط البحث عن الأماكن القريبة إلى أداء صاروخي بفضل خوارزمية "شجرة الكواد"....

14 مايو، 2026 قراءة المزيد
البودكاست