روبوت سناب شات في قفص الاتهام: هل أصبحت دردشات أطفالنا وقودًا للذكاء الاصطناعي؟

يا جماعة الخير، السلام عليكم ورحمة الله.

قبل كم شهر، كنت قاعد مع ابن أختي الصغير، “حمّودة”، عمره يادوب 13 سنة. الولد ماسك الجوال ومندمج على الآخر، بضحك وبيحكي مع حدا. سألته “مع مين بتحكي يا بطل؟” بتطلع فيي وبكل براءة بحكيلي: “بحكي مع صاحبي الجديد يا خالو، اسمه My AI على سناب شات، ذكي كثير وبعرف كل شي!”.

قلبي “نقزني” شوي. فضولي كمبرمج غلبني، أخذت الجوال من إيده وصرت أقرأ المحادثة. حمّودة كان يسأله عن واجباته المدرسية، وعن لعبة جديدة، وحتى حكاله إنه زعلان شوي لأنه تخانق مع صاحبه بالمدرسة. الروبوت كان يرد بردود ذكية ومنطقية، وكأنه شخص حقيقي. لكن السؤال اللي ظل يرن في راسي طول اليوم: وين بتروح كل هالمعلومات؟ مين “بسمع” فضفضة ولد صغير وبريء زي حمّودة؟ وهل “صاحبه” الذكي هاد هو فعلاً صديق، ولا مجرّد أداة لجمع البيانات؟

هذا الموقف الشخصي هو مدخلنا لقصة أكبر وأكثر تعقيدًا، قصة تضع واحدة من أكبر شركات التواصل الاجتماعي في “قفص الاتهام” الرقمي.

الحكاية من أولها: شو قصة “My AI” من سناب شات؟

في بداية 2023، أطلقت شركة Snap ميزة جديدة اسمها “My AI” لمستخدمي تطبيق سناب شات. باختصار، هو عبارة عن روبوت محادثة (Chatbot) مبني على تقنية GPT من شركة OpenAI (نفس التقنية ورا ChatGPT). الفكرة كانت إنه يكون مساعد شخصي للمستخدمين، يجاوب على أسئلتهم، يقترح عليهم فلاتر، يساعدهم يخططوا لرحلاتهم، أو حتى يدردش معهم كصديق افتراضي.

الفكرة بحد ذاتها مش جديدة، لكن تطبيقها على منصة يستخدمها مئات الملايين من الشباب والمراهقين حول العالم كان خطوة جريئة جدًا. وفجأة، صار عند كل مستخدم تقريبًا “صديق” ذكي صناعيًا، موجود دائمًا ومستعد يسمع أي شي.

جرس الإنذار يدق في بريطانيا: تحقيق مفوضية المعلومات (ICO)

الحماس الأولي بالميزة الجديدة ما استمر طويلًا. في بريطانيا، تحركت جهة رقابية مهمة جدًا اسمها مفوضية حماية المعلومات (ICO). هذه الهيئة وظيفتها تتأكد إن الشركات بتحترم قوانين حماية البيانات والخصوصية، خصوصًا القانون الأوروبي الشهير GDPR.

الـ ICO فتحت تحقيق رسمي في الموضوع، والمخاوف كانت محددة وخطيرة:

  • هل قامت شركة Snap بتقييم المخاطر بشكل كافٍ؟ قبل إطلاق أي منتج جديد يتعامل مع بيانات المستخدمين الشخصية، القانون يُلزم الشركات بعمل دراسة اسمها “تقييم أثر حماية البيانات” (Data Protection Impact Assessment – DPIA). هاي الدراسة بتجاوب على أسئلة مثل: ما هي البيانات التي سنجمعها؟ كيف سنستخدمها؟ ما هي المخاطر المحتملة على خصوصية المستخدمين (خصوصًا الأطفال)؟ وكيف سنتجنب هذه المخاطر؟
  • الخطر على القُصّر: بما أن غالبية مستخدمي سناب شات هم من فئة الشباب واليافعين، كان القلق الأكبر هو أن الشركة أطلقت الميزة لملايين الأطفال والمراهقين بدون ما تتأكد 100% من أن بياناتهم ومحادثاتهم الحساسة في أمان.

التحقيق وصل لدرجة أن الـ ICO أصدرت “إنذار إنفاذ أولي”، وهو بمثابة بطاقة صفراء للشركة، معناها: “أصلحوا هذه المشاكل فورًا وإلا ستواجهون غرامات ضخمة”.

“إخفاق في العناية الواجبة”… شو يعني هالحكي؟

بعد فترة من الشد والجذب، أعلنت سناب أنها أجرت التقييمات المطلوبة وعالجت المخاوف، والـ ICO بدورها أغلقت التحقيق. لكن انتبهوا للنقطة الجوهرية هنا: المشكلة ما كانت تسريب ضخم للبيانات أو فضيحة تجسس واضحة. المشكلة كانت أخطر من هيك، وهي ما أسميه أنا “إخفاق في العناية الواجبة”.

تخيل أن مقاولًا بنى عمارة سكنية ضخمة وسلمها للناس ليسكنوا فيها، وبعدها بفترة اكتشفنا أنه لم يقم بعمل المخططات الهندسية اللازمة للتأكد من سلامة الأساسات. حتى لو لم تقع العمارة (بعد)، فإن مجرد تعريض الناس لهذا الخطر هو إهمال جسيم.

هذا بالضبط ما حدث. أطلقت الشركة الميزة بسرعة، ربما لأسباب تنافسية، ثم حاولت “ترقيع” وتصحيح الإجراءات القانونية والوقائية بعد أن بدأت الجهات الرقابية بالتحرك. خلال هذه الفترة، كان ملايين المستخدمين، ومنهم أطفال مثل “حمّودة”، هم حقل تجارب حي، يتفاعلون مع نظام لا يعرفون تمامًا كيف يستخدم بياناتهم أو إلى أين تذهب محادثاتهم.

هل محادثات أطفالنا وقود للذكاء الاصطناعي؟

وهنا نصل للسؤال الأهم. كيف يتم استخدام هذه المحادثات تقنيًا؟ نماذج الذكاء الاصطناعي اللغوية (LLMs) مثل التي تشغل “My AI” لا تتعلم من الهواء. هي تحتاج لكميات هائلة من النصوص والمحادثات لتتعلم اللغة، والمنطق، وكيفية الرد بطريقة “بشرية”.

عملية التدريب، بشكل مبسط جدًا، تشبه ما يلي:


# مثال توضيحي بسيط جدًا (Pseudo-code) لكيفية استخدام البيانات
# WARNING: This is a highly simplified illustration

# 1. جمع البيانات من محادثات المستخدمين (بعد إزالة المعلومات الشخصية... نظريًا)
training_data = [
    {"user_prompt": "احكيلي نكتة عن المبرمجين", "ai_completion": "ليش المبرمجين بحبوا الليل؟ لأنه ما فيه bugs (حشرات)!"},
    {"user_prompt": "أنا حزين اليوم", "ai_completion": "أنا آسف لسماع ذلك. هل تود التحدث عن الأمر؟"},
    # ... ملايين أو مليارات المحادثات الأخرى
]

# 2. استخدام هذه البيانات لتحسين أداء النموذج في المستقبل (Fine-tuning)
# النموذج يتعلم من هذه الأمثلة كيف يرد بشكل أفضل
ai_model.fine_tune(data=training_data)

# 3. النتيجة: النموذج يصبح "أذكى" وأكثر قدرة على المحاكاة البشرية

الخطر يكمن في الخطوة الأولى. هل يتم فعلًا إزالة كل المعلومات الشخصية؟ ماذا عن اسم الطفل، اسم مدرسته، مشاكله الشخصية، مخاوفه؟ حتى لو تم حذف الاسم الصريح، يمكن للذكاء الاصطناعي أن يستنتج الكثير من سياق المحادثة. سناب شات تقول إنها لا تستخدم محتوى المحادثات مع “My AI” لتدريب نماذجها، وأنها تحذف المحتوى بعد فترة. لكن القضية أثبتت أن الثقة العمياء في سياسات الشركات المعلنة ليست كافية.

دروس من “قفص الاتهام”: نصائح عملية للمبرمجين والأهالي

كالعادة، أنا بحب نطلع من كل قصة بدروس عملية ومفيدة. هذه القضية ليست مجرد خبر نقرأه وننساه، بل هي درس لنا جميعًا.

للمطورين والشركات: لا تطلقوا الصاروخ قبل بناء القاعدة

إذا كنت مبرمجًا أو صاحب شركة تقنية، خصوصًا في مجال الذكاء الاصطناعي، خذ هذه النصائح من أخوك أبو عمر:

  1. الخصوصية حسب التصميم (Privacy by Design): لا تبنِ المنتج ثم تفكر في الخصوصية. اجعل الخصوصية جزءًا أساسيًا من تصميم المنتج منذ اليوم الأول.
  2. الـ DPIA ليس رفاهية: قم بإجراء تقييم أثر حماية البيانات بجدية، ليس كورقة تملؤها لإرضاء المحامين، بل كأداة حقيقية لفهم المخاطر وحماية مستخدميك.
  3. الشفافية أولًا: كن واضحًا وصريحًا مع المستخدمين حول البيانات التي تجمعها وكيفية استخدامها. لغة بسيطة وواضحة، وليست شروط خدمة من 50 صفحة لا يقرأها أحد.
  4. فكر في أسوأ سيناريو (Threat Modeling): اسأل نفسك: “ما أسوأ شيء يمكن أن يحدث إذا تم استغلال هذه الميزة أو تسريب بياناتها؟” ثم ابنِ دفاعاتك على هذا الأساس.

للأهالي والمستخدمين: “كل شي مسجّل يا خال”

أما لنا كمستخدمين وآباء وأمهات، فالمسؤولية علينا أكبر. إليكم بعض الخطوات العملية:

  • الوعي هو خط الدفاع الأول: علموا أولادكم أن أي شيء يكتبونه لأي روبوت محادثة (سواء على سناب شات، فيسبوك، أو أي مكان آخر) هو ليس محادثة خاصة. يجب أن يتعاملوا معه وكأنه منشور علني قد يراه أي شخص.
  • لا تشارك معلومات حساسة: نبهوا عليهم ألا يشاركوا أبدًا معلومات مثل اسمهم الكامل، عنوانهم، اسم مدرستهم، أرقام هواتفهم، أو أي تفاصيل شخصية جدًا.
  • راجعوا إعدادات الخصوصية: ادخلوا إلى إعدادات التطبيق مع أولادكم. في سناب شات مثلًا، يمكنكم الذهاب إلى الإعدادات الخاصة بـ “My AI” ومسح بياناتكم. اجعلوها عادة دورية.
  • الحوار المفتوح: تحدثوا مع أطفالكم. اسألوهم عن “أصدقائهم” الرقميين. اجعلوا الحوار مفتوحًا وآمنًا بحيث إذا شعروا بأي شيء غريب أو مقلق، يأتوا إليكم مباشرة.

الخلاصة يا جماعة الخير 🛡️

قضية روبوت سناب شات هي جرس إنذار لنا جميعًا. هي تذكير بأن السباق المحموم لتطوير وإطلاق ميزات الذكاء الاصطناعي قد يأتي أحيانًا على حساب أبسط حقوقنا: الخصوصية والأمان، خاصةً أمان أطفالنا.

الشركات عليها مسؤولية قانونية وأخلاقية هائلة. ونحن كمستخدمين، علينا مسؤولية أن نكون واعين، فضوليين، وألا نمنح ثقتنا وبياناتنا بسهولة. تذكروا دائمًا، في العالم الرقمي، إذا كان المنتج مجانيًا، فغالبًا ما تكون أنت وبياناتك السلعة.

كونوا بخير، وكونوا حذرين.

أبو عمر

سجل دخولك لعمل نقاش تفاعلي

كافة المحادثات خاصة ولا يتم عرضها على الموقع نهائياً

آراء من النقاشات

لا توجد آراء منشورة بعد. كن أول من يشارك رأيه!

آخر المدونات

أتمتة العمليات

قهوتك الصباحية مع ملخص الإنجازات: كيف تبني داشبورد يومي يصلك على الموبايل باستخدام n8n والذكاء الاصطناعي

كف عن تشتيت نفسك كل صباح بين Jira وGitHub والإيميلات. تعلم معي، أبو عمر، كيف تبني ورك فلو أتمتة يرسل لك ملخصاً ذكياً ومنسقاً بإنجازات...

12 فبراير، 2026 قراءة المزيد
البودكاست