التقيت بفاطمة في حزيران/يونيو 2019 في العاصمة البلغارية صوفيا. قبل أربع سنوات أُجبرت فاطمة على مغادرة منزلها في حلب مع جميع أفراد أسرتها: والدتها ووالدها وأخاها الأكبر وشقيقيها الأصغر منها. كانت في السابعة عشرة، عندما دفع والداها ما يعادل تسعة آلاف يورو لمهربين لقاء تهريب أفراد الأسرة السبعة، في الجزء الخلفي من شاحنة صغيرة، وإيصالهم إلى فنلندا عبر صوفيا، مجتازين العديد من المناطق والحدود. كان المهربون قد وعدوهم بمنزل وسيارة في فنلندا مقابل المبلغ، ولكن هذا الوعد تبخر. عِوضًا عن ذلك، رُحّلت عائلة فاطمة إلى بلغاريا بعد مضي ستة أشهر، لأن “بصماتهم كانت مسجلة في صوفيا أولًا”. معربة عن أسفها قالت فاطمة: “فقدنا كل شيء من أجل حياة جيدة، لأن حياتنا كانت في خطر”. سألتُها، “هل كنتم في خطر بسبب الحرب؟”. أجابت بغموض: “كانت مسألة شخصية”.
بعد مرور أربع سنوات، وفي عام 2019 تحديداً، باتت فاطمة، البالغة من العمر 21 عامًا في الأثناء، تُقيم مع عائلتها في مخيم للاجئين في العاصمة البلغارية. عندما التقيتها خلال عملي الميداني، كانت تساعد والدها في صالون تصفيف الشعر في المخيم، وتعمل أيضاً بدوام جزئي لدى شركة تصنيف بيانات. وكان من المثير للاهتمام، أنّها وُظِّفت من قبل الشركة في مخيم اللاجئين. بعد تدريب أولي في “المهارات الرقمية” واللغة الإنجليزية، كانت فاطمة جاهزة لتولي دورها كعاملة في مجال البيانات. خلال محادثتنا الأولى، كانت تجلس في مكتب الشركة، بجوار ديانا، وهي أيضًا طالبة لجوء سورية، كانت منخرطة في تصنيف صور الأشخاص على أساس العرق والعمر والجنس. في المقابل، كانت فاطمة منغمسة في العمل على مشروع يتضمن صور الأقمار الصناعية والتجزئة الدلالية، وهي مهمة دقيقة للرؤية الحاسوبية تعتمد على الفصل الدقيق والتصنيف المتأني لكل بكسل في الصورة. هذا النوع من العمل على البيانات له أهمية خاصة في إنشاء بيانات تدريب الذكاء الاصطناعي، خاصةً أنظمة الرؤية الحاسوبية المدمجة في أجهزة مثل الكاميرات والطائرات بدون طيار، أو حتى الأسلحة. ومضت فاطمة تشرح أن المهمة تعتمد في الأساس على فصل “الأشجار عن الشجيرات، والسيارات عن الناس، والطرق والمباني”. بعد هذه التجزئة، تضع التصنيفات الملائمة لتحديد كل جسم.
عمل البيانات يتطلب مهارة
قد يبدو العمل تافهًا وسهلًا، عند شرحه بهذه الطريقة. هكذا مهام تندرج تحت ما يعرف بالعمل المجزأ، أو عمل النقر، أو بما أسمّيه عمل البيانات، الذي يشير إلى العمالة المنخرطة في توليد البيانات لتدريب أنظمة الذكاء الاصطناعي والتحقق من صحتها. وفقًا للبنك الدولي، هناك بين 154 مليون و435 مليون عامل في مجال البيانات حول العالم، معظمهم من الأغلبية العالمية أو نازحين منها، يعملون غالبًا لصالح منصات أو شركات التعاقد الخارجي، كعمال مستقلين بشكل أساسي، حيث يكسبون بضعة سنتات لكل قطعة أو مهمة، دون أي حماية عمالية، مثل الإجازات المرضية المدفوعة الأجر، الموجودة عادة في علاقات العمل التقليدية. يقوم العاملون في هذا المجال بتوليد البيانات، من خلال وسائل مختلفة تتراوح بين استقاء المعلومات من الإنترنت، وتسجيل أصواتهم، وتحميل صور سيلفي. وعلى غرار فاطمة، غالبًا ما يشاركون في مهام التصنيف. بالإضافة إلى ذلك، قد يساهم العمال في مجال البيانات في الإشراف على الخوارزميات، مثل تقييم مخرجات أنظمة التوصية على منصات مثل نتفليكس أو سبوتيفاي، وتقييم فائدتها ومدى ملاءمتها وسماتها الضارة. في حالات أخرى، قد يُكلَّف العاملون في مجال البيانات ببساطة بانتحال شخصية أنظمة ذكاء اصطناعي غير موجودة، وقد يُطلب منهم “التفكير مثل الروبوت“، والتظاهر بأنهم روبوت دردشة على سبيل المثال.
على الرغم من الدور المهم الذي يلعبه عمل البيانات في تطوير تقنيات الذكاء الاصطناعي وصيانتها، إلا أنه غالبًا ما يُقَلَّل من شأنه، باعتباره عملًا جزئيًا أو صغيرًا، لا يتطلب سوى بضع نقرات، ويتم تجاهله باعتباره عملًا منخفض المهارة أو من ذوي الياقات الزرقاء (الوظائف الحرفية). في الواقع، تدعي منصة “كليك ووركر“، وهي من أبرز مقدمي الخدمات لأعمال البيانات عند الطلب، على موقعها الإلكتروني أن “المهام عمومًا بسيطة ولا تتطلب الكثير من الوقت أو المهارة لإكمالها.” ومع ذلك، فإن هذا الادعاء غير دقيق. فخلال عملي الميداني في بلغاريا، على سبيل المثال، حاولت تجزيء صور الأقمار الصناعية وتصنيفها، ووجدت أن العمل ينطوي على تحديات بالغة، ومرهق للعيون واليدين; إذ يتطلب دقة عند رسم المضلعات حول الأجسام المختلفة في الصور. بالإضافة إلى ذلك، يتطلب الأمر معرفة للسياق، بما في ذلك فهم شكل النبات والمركبات في مناطق محددة. بعد عملية التجزئة والتصنيف التي تقوم بها فاطمة وفريقها، تأتي امرأة من شركة العميل لإجراء فحص دقيق للجودة. وقد ذكرت مديرة فاطمة في بلغاريا أن المسؤولة عن مراقبة الجودة كانت “سريعة بشكل ملحوظ في فحص الجودة وإبداء الملاحظات”، وأضافت: “إنها قادرة على القيام بذلك بسرعة لأنها تعرف الصور والمكان”. وأنا أدوّن ذلك، تساءلتُ عن مدى معرفة مسؤولة مراقبة الجودة للمكان. هل هي من المنطقة التي التقطت فيها هذه الصور؟ هل هي، مثل فاطمة، لاجئة؟ هل تمت الاستفادة من نزوحها كخبرة؟
سألتُ فاطمة إن كانت تعتقد أن صور الأقمار الصناعية التي كانت تعمل عليها من سوريا. أجابت بأنها تعتقد أن الهندسة المعمارية والمركبات تبدو مألوفة. وهمست وهي تحدّق في الشاشة: ” آمل ألا يستخدم هذا في الأسلحة”. لم يكن أي منا متأكداً من ذلك.
المعلوم والمجهول
مخاوف فاطمة من استخدام صور الأقمار الصناعية في مجال صناعة أسلحة الذكاء الاصطناعي ليست واهية. فقد شهد انتشار الطائرات بدون طيار ذات التحكم الذاتي وتقنيات الأسراب نموًا متسارعًا في السنوات الأخيرة، بفضل دمج الذكاء الاصطناعي في عمليات الاستطلاع وتحديد الأهداف واتخاذ القرارات. ولدينا أمثلة مزعجة على ذلك، كاستخدام تقنيات التعرف على الوجه لدعم الفصل العنصري ومراقبة الشعب الفلسطيني، في حين لعبت الأسلحة الآلية دورًا حاسمًا في الإبادة الجماعية المستمرة في غزة. وتتباهى شركات مثل شركة “سمارت شوتر” الإسرائيلية بقدراتها الفتاكة تحت شعار “طلقة واحدة، إصابة واحدة”.
وتُستَخدم طائرات المراقبة بدون طيار والتحليلات التنبؤية وأنظمة دعم القرار في التخطيط الاستراتيجي في “استباق التهديدات” والمراقبة الفورية على طول المناطق الحدودية. على سبيل المثال، يستخدم المكتب الاتحادي الألماني للهجرة واللاجئين التحليل البيومتري للصور والأصوات لتحديد الهويات وتحليل اللهجات، للتأكد من موطن طالبي اللجوء وتقييم أهليتهم للحصول على حق اللجوء. يُزعم أن هذا النظام يتعرف على اللهجات العربية والدارية والفارسية والباشتو والكردية. وقد كشف المكتب الاتحاد الألماني للهجرة واللاجئين، ردًا على استفسارٍ من النواب الألمان أنّ عمال البيانات، الذين تم التعاقد معهم من خلال منصة “كليك ووركر”، أي المنصة نفسها التي تدعي أن المهام بسيطة ولا تحتاج إلى الكثير من المهارة، شاركوا في انتاج العينات الصوتية المطلوبة لتطوير النظام.
ولحسن الحظ، فإن شركة البيانات في بلغاريا لديها سياسة ثابتة لرفض أي طلبات متعلقة بتقنيات الحرب. وأوضحت مديرة فاطمة “أننا رفضنا مشاريع تتعلق بـ (…) تدريب الذكاء الاصطناعي لأنواع مختلفة من التطبيقات العسكرية. لذا، شعرتُ أن هذا لا يتماشى حقًا مع مهمتنا الاجتماعية، وعندما أجبتُ العميل، قلت له إننا نعمل مع الأشخاص المتضررين من النزاعات، وهذا هو سبب رفضنا (…). ولكنه كان أيضًا نوعًا من مقاطعة لمشاريع كهذه، لكي لا تُطوَّر على الإطلاق”. وأضافت أن تصنيف فريقهم لصور الأقمار الصناعية جاء بتكليف من شركة أوروبية تعمل على تطوير أنظمة قيادة ذاتية للنقل الجوي، وليس للأسلحة. تتطابق هذه المعلومات مع موقع العميل الإلكتروني. ومع ذلك، يذكر الموقع أيضًا أن تقنيتهم تُستخدم، بالإضافة إلى ذلك، في المركبات الجوية غير المأهولة (UAV)، المعروفة باسم الطائرات بدون طيار أو المُسَيَّرَات، مع تطبيقات تشمل المراقبة.
مخاوف العمال الأخلاقية
تُعد انتهاكات الخصوصية واحتمالية التنميط التمييزي من أبرز المخاوف المتعلقة بأنظمة الذكاء الاصطناعي المطبقة في مراقبة الحدود والحرب. وعلى الرغم من هذه المخاطر التي تؤثر على مجتمعاتهم بشكل غير متكافئ، ولها أحيانًا عواقب مميتة، إلا أن معظم العاملين في مجال البيانات لا يعلمون شيئًا عن الغاية النهائية للبيانات التي يساهمون في إنتاجها، فإسناد أعمال البيانات إلى منظمات خارجية، غالبًا ما تكون بعيدة عن الموقع الجغرافي لطالبي البيانات، يعقّد جهود العاملين في سلاسل التوريد المعقدة التي تدعم صناعة الذكاء الاصطناعي. ونادرًا ما تقدِّم التعليمات المعطاة للعاملين في مجال البيانات، أي تفاصيل عن طالب البيانات أو ما ستستخدم البيانات لأجله. وبالتالي، فإن معظم العاملين في مجال البيانات لا يعرفون اسم وطبيعة الشركات التي تسعى للحصول على خدماتهم، أو المنتجات التي سيتم تدريبها على مجموعات البيانات التي يولدوها، أو الآثار المحتملة لهذه التقنيات على الأفراد والمجتمعات. وغالبًا ما تُبرر شركات الذكاء الاصطناعي فرض ستار السرية هذا، بكونه وسيلة لحماية قدرتها التنافسية.
إن حقيقة إدراج العاملين في مجال البيانات في هياكل صناعية مُصممة لإبقائهم غير مطّلعين على المعلومات وخاضعين للمراقبة والتنكيل وسرقة الأجور، لا يعني أنه ليس لديهم مخاوف أخلاقية حول عملهم وتطبيقات الذكاء الاصطناعي التي يدعمها. في الواقع، سُجّلت حالات نبه فيها العاملون في مجال البيانات المستهلكين صراحة إلى القضايا المتعلقة بالخصوصية، وغيرها من القضايا الأخلاقية المرتبطة بالبيانات التي يقومون بتوليدها. على سبيل المثال، أفاد عمال في مجال البيانات في فينزويلا في العام 2022، دون الكشف عن هويتهم، أن المكانس الكهربائية الروبوتية من طراز رومبا تلتقط صوراً للمستخدمين في المنزل، ليشاهدها العمال لاحقًا.
في ظل جائحة كوفيد-19 في العام 2021، قمتُ بتنظيم سلسلة ورش عمل مع خمسة عشر عامل في مجال البيانات، وذلك في سوريا هذه المرة. وقد صُممت الفعالية التي استمرت ثلاثة أيام لفهم ممارسات العمل والعلاقات في سياقات إنتاج البيانات الموزعة جغرافيًا، وخلق مساحة للعاملين لمناقشة المخاوف. كشفت أنشطة ورشة العمل أن الحصول على المعلومات، ووجود مساحات للتعبير، ومناقشة الآثار الأخلاقية المترتبة على البيانات التي يتعاملون معها، كانت ذات أهمية قصوى للعاملين. فقد أعربوا عن قلقهم بشأن حماية خصوصية أصحاب البيانات، ودعوا إلى وضع بند إلزامي يُجبر مقدمي الطلبات على الكشف عن الاستخدامات المقصودة للبيانات. كما أعربوا عن مخاوفهم بشأن الآثار الصحية النفسية المترتبة على العمل مع البيانات العنيفة أو العدوانية أو تلك المحركة للذكريات السيئة.
يمتلك العمال في مجال البيانات وجهة نظر فريدة يمكن أن تلعب دورًا حاسمًا في التعرف المبكر على المسائل الأخلاقية المتعلقة بالبيانات والذكاء الاصطناعي. ومن الضروري تشجيع المستهلكين والمجتمع بأسره على الاصطفاف معهم في الدعوة إلى زيادة الشفافية في إنتاج بيانات الذكاء الاصطناعي. فعلى سبيل المثال، يمكن للعاملين مثل فاطمة وزملائها أن يقدموا رؤى قيمة حول استخدام صور الأقمار الصناعية في تقنيات المراقبة. وبالمثل، فإن الناطقين باللغات الأصلية الذين أسهموا بأصواتهم لتوليد مقتطفات صوتية للتعرف على اللهجات، قادرون على تسليط الضوء على تطبيقات مثل هذه الأنظمة ضد طالبي اللجوء في ألمانيا.
للأسف، يكمن التحدي الأكبر في أنّ صناعة الذكاء الاصطناعي، ولأسباب واضحة، قد هيكلت عمليات إنتاجها بحيث يعمل عمال البيانات كأدوات صامتة، بدلاً من أن يكونوا مبلغين عن الانتهاكات.