وجهك في قاعدة بيانات عالمية دون علمك: قصة Clearview AI المخيفة وكيف تحمي نفسك

السلام عليكم يا جماعة، معكم أبو عمر.

قبل كم أسبوع، كنت قاعد بقلّب في مشروع تخرج لأحد طلابي، مشروع عن “توليد الصور الفنية” باستخدام الذكاء الاصطناعي. الشب كان شاطر ومتحمس، وبفرجيني كيف الخوارزمية تبعته “بتتعلم” من ملايين الصور على الإنترنت عشان ترسم لوحات جديدة. فجأة، وقفت عند صورة… حسيت فيها إشي مألوف. طلبت منه يكبرها شوي، وإذ بتفاجأ إنه في زاوية اللوحة الفنية المُولَّدة، في ملامح وجه بتشبه خالي الله يرحمه. نفس تقطيبة الحاجبين ونظرة العين. الصورة الأصلية أنا بعرفها منيح، كانت منشورة على مدونة قديمة للعيلة قبل أكثر من عشر سنين.

سألت الطالب: “من وين جابت الخوارزمية هاي الصورة؟”. جاوبني ببساطة: “يا أستاذ، من الإنترنت كله. جمعت كل الصور اللي قدرت أوصلها عشان أدرب النموذج”.

هون أنا صفنت. صورة شخصية جداً، في سياق عائلي حميم، تحولت بدون إذن أو علم إلى مجرد “بيانات تدريب” لخوارزمية على الطرف الآخر من العالم. هالموقف الصغير فتح عيني على قصة أكبر وأخطر بكثير، قصة شركة اسمها Clearview AI، اللي أخذت فكرة “جمع الصور من الإنترنت” لمستوى ثاني تماماً… مستوى بخلي قصة خالي تبين زي مزحة.

القصة الكاملة لـ Clearview AI: كاميرا خفية بحجم الإنترنت

القصة وما فيها، إنه في شركة أمريكية اسمها Clearview AI قررت تبني أضخم قاعدة بيانات للتعرف على الوجوه في العالم. الفكرة بسيطة ومُرعبة بنفس الوقت: ليش نعتمد على الصور الحكومية أو قواعد البيانات المحدودة، لما الإنترنت عبارة عن بحر من الصور الشخصية اللي الناس نشروها بنفسهم؟

“الزحف” العظيم: كيف تم جمع أكثر من 30 مليار صورة؟

اللي عملته Clearview هو برمجة “عناكب” أو “زواحف” (Web Crawlers) متطورة. تخيلها روبوتات صغيرة بتلف على كل المواقع العامة على الإنترنت: فيسبوك، انستغرام، تويتر، يوتيوب، مواقع الأخبار، المدونات، أي مكان فيه صورة وجه بشري. هاي الروبوتات كانت بتعمل شغلة وحدة بسيطة: “نزّل الصورة”.

ما سألوا عن إذن، ما اهتموا بسياسات الخصوصية للمواقع اللي بسرقوا منها، وما فكروا للحظة إنه هاي الصورة ممكن تكون من عيد ميلاد ابنك، أو من تخرج بنتك، أو حتى صورة قديمة إلك أنت نسيت إنك نشرتها. بالنسبة إلهم، الإنترنت كان عبارة عن بوفيه مفتوح، وكل صورة وجه هي طبق لازم ينضاف للمجموعة.

من الصورة إلى “البصمة البيومترية”: سحر الذكاء الاصطناعي الأسود

بعد ما جمعوا مليارات الصور، إجا دور الذكاء الاصطناعي. هون الشغل التقني الدقيق ببدأ:

  1. كشف الوجه (Face Detection): الخوارزمية بتمر على كل صورة وتحدد وين في وجه بشري.
  2. استخلاص الملامح (Feature Extraction): بعد ما تلاقي الوجه، بتبدأ بتحليله. بتقيس المسافة بين العينين، شكل الأنف، زاوية الفك، وكل التفاصيل الدقيقة اللي بتميز وجهك عن أي وجه ثاني.
  3. إنشاء المتّجه (Vector Creation): هاي القياسات بتتحول لسلسلة طويلة من الأرقام، بنسميها “متّجه” أو “تضمين” (Embedding). هاد المتّجه هو بصمة وجهك الرقمية، فريد من نوعه تقريباً زي بصمة إصبعك.

وبهيك، كل صورة إلك على الإنترنت تحولت لبصمة بيومترية محفوظة في قاعدة بيانات ضخمة، ومربوطة بالرابط (URL) اللي انوجدت فيه الصورة، واللي غالباً بيحتوي على اسمك أو معلومات عنك.

من المستفيد؟

باعت Clearview الوصول لهاي القاعدة لآلاف الجهات، خصوصاً جهات إنفاذ القانون حول العالم. الفكرة كانت إنه الشرطي بقدر يأخذ صورة لمشتبه فيه من كاميرا مراقبة، يرفعها على نظام Clearview، والنظام يرجعله كل الصور العامة لهاد الشخص على الإنترنت مع روابطها، ويكشف هويته خلال ثواني. لكن الخطر أكبر من هيك، تخيل لو هاي التقنية وقعت في إيد شركات إعلانات، أو أنظمة توظيف، أو حتى حكومات قمعية.

الضربة القانونية: عندما قالت أوروبا “لهون وبس!”

طبعاً، هالحكي ما مر مرور الكرام. في أوروبا، عندهم قانون صارم جداً اسمه “النظام العام لحماية البيانات” أو GDPR. هيئة حماية البيانات الهولندية فتحت تحقيق، والنتيجة كانت غرامة بقيمة 30.5 مليون يورو على Clearview.

خرق الـ GDPR: لماذا كانت الغرامة ضخمة؟

القانون الأوروبي واضح جداً. المادة 9 من GDPR بتعتبر “البيانات البيومترية” (زي بصمة الوجه اللي حكينا عنها) من ضمن “فئات البيانات الخاصة الحساسة”. معالجة هاي البيانات ممنوعة منعاً باتاً، إلا باستثناءات نادرة جداً زي الموافقة الصريحة والواضحة من الشخص صاحب البيانات.

Clearview ما قدرت تثبت أي أساس قانوني لعملها. ما أخذت موافقة من ٣٠ مليار شخص، بل على العكس، تجاهلت حقوقهم تماماً. لهيك، الغرامة كانت رسالة واضحة: “لعبتكم هاي غير قانونية عنا”.

“انهيار السياق” (Context Collapse): الخطيئة الكبرى في علم البيانات

من وجهة نظري كمطور، المشكلة الجوهرية اللي عملتها Clearview بنسميها “انهيار السياق”. شو يعني هالحكي؟

أنت لما تنشر صورة حفلة تخرجك على فيسبوك، أنت بتنشرها في “سياق اجتماعي” معين. هدفك تشارك الفرحة مع أصحابك وقرايبك. أنت ما وافقت ضمنياً على إنه هاي الصورة تصير جزء من قاعدة بيانات عالمية للمراقبة والتعرف على الهوية (سياق أمني/تجاري).

Clearview أخذت البيانات من سياقها الأصلي، وحطتها في سياق مختلف تماماً بدون موافقتك. هاد هو تدمير الثقة الرقمية، وهو خط أحمر لأي مطور أو شركة بتحترم حالها وبتحترم مستخدميها.

نصائح أبو عمر العملية: كيف تحمي وجهك الرقمي؟

طيب، بعد كل هالحكي المُقلق، شو بنقدر نعمل؟ الموضوع مش سوداوي تماماً، وفي خطوات عملية بنقدر نأخذها.

للمستخدم العادي: درهم وقاية خير من قنطار علاج

  • راجع إعدادات الخصوصية: فوت على حساباتك في فيسبوك وانستغرام وغيرها. مين مسموحله يشوف صورك؟ هل ألبوماتك “عامة” (Public)؟ الأفضل تخليها للأصدقاء (Friends) فقط.
  • تحكم بالـ “Tagging”: فعّل خيار مراجعة الصور اللي الناس بيعملولك “تاغ” فيها قبل ما تظهر على بروفايلك. ممكن صاحبك نيته صافية، بس حسابه مفتوح للكل، وصورتك بتصير متاحة للجميع.
  • فكّر قبل ما تنشر: قبل ما تكبس زر “نشر” على صورة فيها وجهك أو وجه أطفالك، اسأل حالك: “هل أنا مرتاح لو هاي الصورة شافها أي حدا في العالم، واستخدمها لأي غرض؟”.
  • اطلب الحذف: بعض الشركات زي Clearview (تحت الضغط القانوني) صارت توفر نماذج على مواقعها تطلب فيها حذف بياناتك. ابحث عن “Clearview AI opt-out” وجرب حظك.

للمطورين والشركات: المسؤولية قبل الربح

إذا كنت مطور أو صاحب شركة، المسؤولية عليك أكبر. نصيحتي إلك مباشرة:

  1. دقق في خدمات الطرف الثالث (Third-party APIs): قبل ما تستخدم أي خدمة جاهزة للتعرف على الوجوه، اسألهم الأسئلة الصعبة: من وين مصدر بياناتكم؟ شو الأساس القانوني للمعالجة؟ كيف بتضمنوا حقوق المستخدمين؟ إذا كان الجواب غامض، اهرب!
  2. ابنِ الأخلاق في الكود تبعك: لازم تصميم أنظمتك يحترم خصوصية المستخدم. لا تجمع بيانات ما بتحتاجها، وكن شفافاً حول كيفية استخدامها.

للتوضيح، شوف الفرق بين تصميم سيء وتصميم جيد لواجهة برمجية (API) افتراضية:


# Bad API Design - تصميم سيء
# لا يسأل عن مصدر أو موافقة
def recognize_face(image_url):
    # ... يتصل بقاعدة بيانات غامضة المصدر ...
    person_id = black_box_api.lookup(image_url)
    return person_id

# Good API Design - تصميم جيد وأخلاقي
# يطلب منك إثبات الموافقة والسياق
def recognize_face_with_consent(image_data, consent_id, processing_context):
    # الواجهة تتأكد داخلياً أن الموافقة صالحة لهذا السياق
    if api.is_consent_valid(consent_id, processing_context):
        person_id = ethical_api.lookup(image_data)
        return person_id
    else:
        raise PermissionError("User consent not provided or not valid for this context.")

الفرق بسيط في الكود، لكنه فرق شاسع في الأخلاق والمسؤولية.

ما هو القادم؟ هل Clearview مجرد قمة جبل الجليد؟

المخيف في قصة Clearview AI إنها كشفت عن حقيقة مزعجة: التقنية موجودة، والبيانات متاحة، والإغراء كبير. من السذاجة إنه نفكر إنهم الشركة الوحيدة اللي بتعمل هيك. قد يكون هناك العشرات من الشركات الأصغر والأقل شهرة، اللي بتبيع هاي التقنية للمسوقين، لأصحاب العقارات لفحص المستأجرين، أو حتى لأفراد عاديين. الخطر الحقيقي هو أن تصبح هذه المراقبة البيومترية الشاملة أمراً طبيعياً ومقبولاً.

خلاصة الكلام… 🤠

قصة Clearview AI هي جرس إنذار إلنا كلنا: مستخدمين، مطورين، وشركات. علمتنا إنه كلمة “عام” (Public) على الإنترنت لا تعني “مباح للجميع ولكل الأغراض”. وجهك هو هويتك، هو أثمن ما تملك في العالم الرقمي، وحمايته مسؤوليتنا المشتركة.

كمستخدم، كن أكثر وعياً ببصمتك الرقمية. وكمطور، تذكر دائماً أن خلف كل نقطة بيانات (data point) يوجد إنسان له حقوق وله خصوصية. خلينا نبني تقنية تخدم البشرية، مش تقنية تتجسس عليها.

دمتم بخير وعافية.

أبو عمر

سجل دخولك لعمل نقاش تفاعلي

كافة المحادثات خاصة ولا يتم عرضها على الموقع نهائياً

آراء من النقاشات

لا توجد آراء منشورة بعد. كن أول من يشارك رأيه!

آخر المدونات

أتمتة العمليات

قهوتك الصباحية مع ملخص الإنجازات: كيف تبني داشبورد يومي يصلك على الموبايل باستخدام n8n والذكاء الاصطناعي

كف عن تشتيت نفسك كل صباح بين Jira وGitHub والإيميلات. تعلم معي، أبو عمر، كيف تبني ورك فلو أتمتة يرسل لك ملخصاً ذكياً ومنسقاً بإنجازات...

12 فبراير، 2026 قراءة المزيد
البودكاست