Ollama: حوّل جهازك إلى خادم ذكاء اصطناعي خاص ومجاني – دليل المبرمجين 2025

استمع للبودكاست حوار شيق بين لمى وأبو عمر
0:00 / 0:00

مقدمة: صعود “Local AI” وأهميته للخصوصية والتطوير

بتذكر مرة، كنت شغال على مشروع تجريبي لشركة ناشئة، وكنا بحاجة نموذج لغوي كبير (LLM) عشان نطور مساعد افتراضي. طبعًا، أول خيار كان OpenAI، بس لما شفنا فاتورة الاستخدام بعد أسبوع، قلنا “يا لطيف! شو هاد؟!”. وقتها بلشت أدور على حلول بديلة، وكانت نقطة التحول لما اكتشفت الـ “Local AI” أو الذكاء الاصطناعي المحلي.

الـ “Local AI” ببساطة يعني تشغيل نماذج الذكاء الاصطناعي على جهازك الشخصي، سواء كان لابتوب، أو سيرفر محلي، أو حتى جهاز طرفي (Edge Device). هاد إله فوائد عظيمة، أهمها الخصوصية والأمان، لأن بياناتك ما بتطلع برا جهازك. كمان بيساعدك تتجنب فواتير الاستخدام المرتفعة، وبتصير عندك سيطرة كاملة على النموذج.

في عالم التطوير السريع، الـ “Local AI” صار ضرورة، مش رفاهية. تخيل تقدر تجرب وتطور نماذج الذكاء الاصطناعي بكل حرية، بدون ما تحسب ألف حساب لتكلفة الـ API أو تخاف على خصوصية بياناتك. هاد بالظبط اللي بتقدمهولنا أدوات زي Ollama.

التثبيت والاستخدام: دليل سريع لتشغيل أول نموذج (Llama 3) بسطر واحد

Ollama هي أداة بتخليك تشغل نماذج لغوية كبيرة (LLMs) على جهازك بسهولة. التثبيت بسيط جداً، والاستخدام أسهل منه. خلينا نشوف كيف ممكن نشغل نموذج Llama 3 بسطر واحد:

الخطوة الأولى: التثبيت

أول شي لازم تنزل Ollama من الموقع الرسمي: ollama.com. فيه نسخ لأنظمة التشغيل المختلفة (macOS, Linux, Windows).

بعد التنزيل، التثبيت بسيط جداً، مجرد تتبع التعليمات اللي بتظهرلك على الشاشة.

الخطوة الثانية: تشغيل Llama 3

بعد التثبيت، افتح الـ Terminal أو الـ Command Prompt، واكتب الأمر التالي:

ollama run llama3

أول مرة بتشغل النموذج، Ollama راح ينزل النموذج من الإنترنت. ممكن ياخد شوية وقت حسب سرعة الإنترنت عندك. ☕

بعد التنزيل، راح يشتغل النموذج، وتقدر تبدأ تسأله أسئلة وتجرب قدراته. جرب أسأله “What is the capital of France?” وشوف شو بجاوب. 😎

نصيحة من أبو عمر: إذا كان جهازك ضعيف، جرب نماذج أصغر حجمًا. Ollama بدعم مجموعة كبيرة من النماذج، مش بس Llama 3. شوف Ollama Library عشان تكتشف نماذج تانية.

التكامل البرمجي: كيفية استخدام مكتبات Python/JS للربط مع Ollama في تطبيقاتك

الأحلى في Ollama إنه بتقدر تستخدمه في تطبيقاتك الخاصة بسهولة. Ollama بيشتغل كخادم محلي (Localhost API)، يعني بتقدر تتواصل معاه من أي لغة برمجة بتدعم الـ HTTP requests.

Python

عشان تستخدم Ollama في Python، ممكن تستخدم مكتبة requests:

import requests
import json

url = "http://localhost:11434/api/generate"
headers = {
    "Content-Type": "application/json"
}
data = {
    "model": "llama3",
    "prompt": "Write a short story about a cat."
}

response = requests.post(url, headers=headers, data=json.dumps(data), stream=True)

for line in response.iter_lines():
    if line:
        decoded_line = line.decode('utf-8')
        json_line = json.loads(decoded_line)
        print(json_line['response'], end="")

الكود هاد بيرسل طلب لـ Ollama عشان يولد قصة قصيرة عن قطة، وبعدين بيطبع الجواب سطر بسطر. 🐱

JavaScript

في JavaScript، ممكن تستخدم الـ `fetch` API:

async function generateText() {
  const response = await fetch('http://localhost:11434/api/generate', {
    method: 'POST',
    headers: {
      'Content-Type': 'application/json'
    },
    body: JSON.stringify({
      model: 'llama3',
      prompt: 'Explain quantum physics in simple terms.'
    })
  });

  const reader = response.body.getReader();
  const decoder = new TextDecoder();

  while (true) {
    const { done, value } = await reader.read();
    if (done) {
      break;
    }
    const text = decoder.decode(value);
    console.log(text);
  }
}

generateText();

الكود هاد بيطلب من Ollama يشرح الفيزياء الكمية بطريقة بسيطة، وبعدين بيعرض الجواب في الـ console. ⚛️

نصيحة من أبو عمر: في مكتبات جاهزة بتسهل التعامل مع Ollama في لغات برمجة مختلفة. دور على مكتبات زي `ollama-python` أو `ollama-js` عشان توفر على حالك كتابة الكود من الصفر.

الجديد في 2025: دعم الرؤية (Vision) والواجهة الرسومية

في 2025، Ollama صار أقوى بكتير! صار بدعم الرؤية (Vision) والواجهة الرسومية. خلينا نشوف شو يعني هاد:

دعم الرؤية (Vision)

دعم الرؤية يعني إنه Ollama صار بيقدر يتعامل مع الصور والملفات. بتقدر تعطيه صورة، وتسأله عنها، أو تخليه يحلل ملف PDF. هاد فتح الباب لتطبيقات جديدة ومثيرة، زي:

  • تحليل الصور الطبية.
  • استخراج المعلومات من الفواتير والوثائق.
  • توليد أوصاف للمنتجات بناءً على صورها.

عشان تستخدم ميزة الرؤية، لازم تستخدم نموذج بدعم الوسائط المتعددة (Multimodal Model). في نماذج كتير بتدعم هاد الشي، دور على نماذج مكتوب عليها “Vision” أو “Multimodal” في Ollama Library.

الواجهة الرسومية (GUI)

الواجهة الرسومية خلت استخدام Ollama أسهل بكتير للمبتدئين. بدل ما تكتب أوامر في الـ Terminal، بتقدر تستخدم واجهة رسومية بسيطة عشان تنزل النماذج، وتشغلها، وتتفاعل معاها. هاد الشي ساعد في توسيع قاعدة مستخدمي Ollama بشكل كبير. 📈

Ollama Turbo

كمان في ميزة جديدة اسمها “Ollama Turbo”. هاي الميزة بتسمحلك تحمل المهام الثقيلة جداً على السحابة بشكل مؤقت. يعني إذا كان جهازك ضعيف، بتقدر تخلي Ollama يشغل النموذج على سيرفرات قوية في السحابة، وبعدين يرجعلك الجواب. هاد بيخليك تستخدم نماذج كبيرة ومعقدة بدون ما تحتاج جهاز قوي. 💪

الخلاصة: مستقبل التطوير الهجين (Local + Cloud)

Ollama غيرت قواعد اللعبة في عالم تطوير الذكاء الاصطناعي. صارت بتسمح للمطورين يجربوا ويطوروا نماذج الذكاء الاصطناعي بكل حرية، بدون قيود التكلفة أو الخصوصية. دعم الرؤية والواجهة الرسومية و Ollama Turbo في 2025 خلوها أداة لا غنى عنها لأي مبرمج مهتم بالذكاء الاصطناعي.

أنا شخصياً بشوف إنه المستقبل هو التطوير الهجين (Local + Cloud). يعني بتقدر تستخدم Ollama عشان تطور وتجرب نماذجك محلياً، وبعدين تنشرها على السحابة عشان توصل لأكبر عدد من المستخدمين. ☁️ + 💻 = ❤️

نصيحة من أبو عمر: لا تتردد تجرب Ollama! نزلها اليوم، وجرب تشغل نموذج، وشوف كيف بتقدر تستخدمها في مشاريعك. الذكاء الاصطناعي صار في متناول إيدك، استغل الفرصة!

أبو عمر

سجل دخولك لعمل نقاش تفاعلي

كافة المحادثات خاصة ولا يتم عرضها على الموقع نهائياً

آراء من النقاشات

لا توجد آراء منشورة بعد. كن أول من يشارك رأيه!

آخر المدونات

تجربة المستخدم والابداع البصري

من الكنباية في بالي إلى الكنباية في صالوني: رحلتي مع الواجهات الفضائية والواقع المعزز

أشارككم خبرتي كمبرمج فلسطيني في عالم الواجهات الفضائية (Spatial UX) والواقع المعزز. نستكشف معًا كيف تحولت الشاشات المسطحة إلى تجارب ثلاثية الأبعاد غامرة، ونتناول التحديات...

14 يناير، 2026 قراءة المزيد
تجربة المستخدم والابداع البصري

التصميم التوقعي والواجهات غير المرئية: كيف تجعل تطبيقاتك تقرأ أفكار المستخدمين؟

من منظور مطور برمجيات، أغوص في عالم التصميم التوقعي والواجهات غير المرئية (Zero UI). نستكشف كيف يمكن للتطبيقات أن تتنبأ باحتياجاتك قبل أن تطلبها، مع...

13 يناير، 2026 قراءة المزيد
من لمسة يد إلى همسة صوت: كيف تبني الواجهات متعددة الأنماط جيلاً جديداً من التجارب الرقمية
تجربة المستخدم والابداع البصري

من لمسة يد إلى همسة صوت: كيف تبني الواجهات متعددة الأنماط جيلاً جديداً من التجارب الرقمية

بدلاً من الاعتماد على الشاشات والنقر فقط، المستخدمون اليوم يتوقون لتفاعل طبيعي وسلس مع التكنولوجيا. في هذه المقالة، نستكشف عالم الواجهات متعددة الأنماط (Multimodal Interfaces)...

13 يناير، 2026 قراءة المزيد
تجربة المستخدم والابداع البصري

واجهتك تعرفك أكثر منك: كيف يصنع الذكاء الاصطناعي تجربة مستخدم فريدة لكل شخص؟

الواجهات الرقمية لم تعد مجرد تصميم ثابت، بل أصبحت كائنات حية تتكيف معك. في هذه المقالة، أغوص معكم في عالم الواجهات المخصصة بقوة الذكاء الاصطناعي،...

13 يناير، 2026 قراءة المزيد
التكنلوجيا المالية Fintech

الذكاء الاصطناعي الصوتي في البنوك: من طوابير الانتظار إلى معاملات فورية بصوتك

وكلاء الصوت الذكية يمثلون ثورة في كيفية تفاعل العملاء مع البنوك، محولين المعاملات المعقدة إلى محادثات طبيعية. في هذه المقالة، نستكشف كيف يغير الذكاء الاصطناعي...

13 يناير، 2026 قراءة المزيد
التكنلوجيا المالية Fintech

المالية المفتوحة: كيف تستعيد ملكية بياناتك المالية وتصنع مستقبلك؟

في عالم تتجاوز فيه المالية المفتوحة حدود الخدمات المصرفية، نستكشف كيف يمكنك امتلاك بياناتك المالية بالكامل، من الرواتب إلى الاستثمارات. مقالة من منظور المبرمج أبو...

13 يناير، 2026 قراءة المزيد
البودكاست