كتابة Melissa McNeilly في
إذا كنتم متابعي الأخبار المتسارعة عن الذكاء الاصطناعي، قد تعتقدون أن الروبوتات على وشك أن تسيطر على العالم. شاهدت مؤخرًا فيديو مؤتمر صحفي بين الإنسان والروبوت في أول قمة للأمم المتحدة في جنيف. بقدر ما يجذب المهتم بالتكنولوجيا أمر الروبوتات ويثير اهتمامه، لا بد لي من الاعتراف أنه تركني مشوشًا وغير مرتاح.
أحدث الذكاء الاصطناعي إثارة وقلقًا في أوساط مجتمع حقوق الإنسان. مع تزايد توفر الذكاء الاصطناعي، تقوم المنظمات المدنية بدراسة المخاطر التي يمكن أن يشكلها. وغالبًا ما تكون هذه المخاطر أكثر انكشافًا مما توحي به العناوين المتعلقة بالروبوتات الذاتية وأنظمة الأسلحة. يُسلط الناشطون والمدافعون الضوء على الحاجة الملحة لتنظيم دقيق لتطوير واستخدام الذكاء الاصطناعي لحماية الإنسان من الأذى الحقيقي.
كثيرٌ من المناقشات حول الذكاء الاصطناعي في مجال حقوق الإنسان تدور حول الحق في معرفة الحقيقة. تساعد التقنيات الجديدة مثل التزييف العميق (Deepfakes) ووسائط الإعلام الاصطناعية على سهولة حدوث هذا الشيء. وأصبح من الأصعب التمييز بين الواقع والدعاية والأكاذيب. حتى برامج كشف الذكاء الاصطناعي ليست دقيقة تمامًا. ومع ذلك، على الرغم من أن تأثير الوسائط الاصطناعية يُشكل قلقًا كبيرًا، إلا أن هناك أضرارًا أكثر دقة وتعقيدًا نتيجة للذكاء الاصطناعي تؤثر بشكل أساسي على الجماعات المهمشة تاريخيًا.
إذا ما هي المخاطر؟
فيما يلي، سأوضح العديد من الأضرار الحالية والمحتملة للذكاء الاصطناعي على الإنسان. وسأقدم روابط لمزيد من المعلومات والموارد من خلال هذه المقالة للعديد من الأفراد والمنظمات المذهلين الذين قاموا بهذا العمل. في الجزء الثاني من هذه السلسلة، سأكتشف ما إذا كانت هناك حالات استخدام أخلاقية للذكاء الاصطناعي في العمل القائم على حقوق الإنسان.
- التمييز:من أهم المخاوف الرئيسية تتمحور حول التمييز المحتمل والحالي الذي يتم توثيقه من قبل أنظمة الذكاء الاصطناعي. تتدرب نماذج الذكاء الاصطناعي على البيانات المتاحة لها، والتي غالبًا ما تكون متحيزة بطبيعتها. على سبيل المثال، تميل مخرجات الذكاء الاصطناعي مثل إنتاج الصور إلى تعزيز الصور النمطية ومعايير الجمال الحالية. نشاهد ذلك في الصور الناتجة عن الذكاء الاصطناعي لدمى باربي من البلدان حول العالم، التي تعرضت لانتقادات شديدة. بالإضافة إلى أنه يمكن أن تؤدي البيانات التي يتم إنتاجها بواسطة الذكاء الاصطناعي إلى اتخاذ قرارات متحيزة ونتائج تمييزية. قد أظهرت نماذج الذكاء الاصطناعي سلوكًا تمييزيًا في:
- التوظيف: إذا أظهرت البيانات التاريخية للتوظيف تفضيلًا للمرشحين من خلفيات معينة، فقد يتعلم نموذج الذكاء الاصطناعي تفضيل هؤلاء المرشحين. يمكن أن يؤدي ذلك إلى تهميش المزيد من الفئات التي لا يمثلونها بشكل كاف.
- أجهزة إنفاذ القانون: تتمتع تقنية التعرف على الوجه بمعدلات خطأ أعلى عند تحديد النساء والأشخاص ذوي البشرة الداكنة. هذا يمكن أن يؤدي إلى خطأ في تحديد الهوية والاستهداف غير العادل للأشخاص الملونين. هذه الأنظمة لديها القدرة على مفاقمة التفاوتات العرقية القائمة في إنفاذ القانون. كما أظهرت نماذج الذكاء الاصطناعي التي تتنبأ بالعودة للجريمة أو تحديد العقوبات أيضًا تحيزات. تعكس هذه النماذج التحيزات الموجودة في بيانات الجرائم التاريخية، مما يؤدي إلى نتائج غير عادلة للمجتمعات المهمشة.
- اللغة والتمثيل: تعمل نماذج الذكاء الاصطناعي على تواصل الاستخدامات السائدة للغة بدلاً من الاستخدامات الأقل شيوعًا. يمكن أن تولد مخرجات ذات تحيز استنادًا إلى أنماط اللغة في بيانات التدريب الخاصة بهم. قد تستجيب الروبوتات للدردشة بشكل غير لائق أو تعزز الصور النمطية عند التفاعل مع المستخدمين. لا تتوافق نماذج الذكاء الاصطناعي حتى الآن مع اللغات المتنوعة بدقة، "مما يهدد بتضخيم التحيز الحالي في التجارة والابتكار العالمي". نادرًا ما تعزز الشركات المتخصصة في الذكاء الاصطناعي فرص العمل والتوظيف للناطقين باللغة حول العالم. يؤدي استبعاد بعض الأشخاص من أنظمة الذكاء الاصطناعي إلى تعزيز الاختلالات الحالية في موازين القوى. علاوة على ذلك، يقع تصفية الخطاب الكراهي والمحتوى المتطرف غالبًا على أفراد من الخلفيات المهمشة، مما يؤدي إلى معاناة الصحة العقلية وارتفاع معدلات اضطرابات ما بعد الصدمة (PTSD).
تسلط هذه الأمثلة الضوء على كيف يمكن لنماذج الذكاء الاصطناعي أن تعزز التمييز وتؤدي إلى زيادة عدم المساواة الاجتماعية. ويؤكد أهمية تنويع بيانات التدريب وتنفيذ استراتيجيات التقييم لضمان أنظمة ذكاء اصطناعي عادلة. لمزيد من المعلومات حول النهج القائم على حقوق الإنسان للذكاء الاصطناعي الذي يركز على الإنصاف والإدماج، يُرجى الاطلاع على أدوات مبادرة الذكاء الاصطناعي في المساواة.
2. المخاوف المتعلقة بالخصوصية: من بين المخاوف الأخرى المتعلقة بالذكاء الاصطناعي هو تأثيره على حقوق الخصوصية. تقوم تقنيات الذكاء الاصطناعي بجمع وتحليل كميات هائلة من البيانات الشخصية، مما يطرح أسئلة حول الموافقة والمراقبة وحماية البيانات. على سبيل المثال، تُستخدم تكنولوجيا بيانات الأعمار والمراقبة الرقمية بشكل مرعب في الولايات المتحدة لمراقبة المهاجرين واللاجئين طوال رحلاتهم عبر أمريكا الوسطى والمكسيك. جمع البيانات الشخصية ينتهك حقوقنا في الخصوصية والاستقلالية وحرية التعبير. قد يكون الاستخدام غير المناسب لهذه البيانات له عواقب خطيرة. تكرر تعرض المعلومات الحساسة لاختراق البيانات مرارًا وتكرارًا.
يُعد نقص الشفافية والمساءلة في خوارزميات الذكاء الاصطناعي تحديًا حقيقيًا لحقوق الإنسان. وعندما تعتمد القرارات على خوارزميات معقدة، يمكن أن يكون من الصعب محاسبة الأطراف المتسببة في الأضرار.
تثير إمكانية استخدام الذكاء الاصطناعي لأغراض قمعية واستبدادية مخاوف جدية بشأن حقوق الإنسان أيضًا. يمكن أن يؤدي استخدام المراقبة بالذكاء الاصطناعي إلى انتهاك حقوق الخصوصية وحرية التعبير والتجمع السلمي. عند استخدام هذه التقنيات من قِبَل انظمة قمعية، يمكن أن تؤدي هذه التقنيات إلى ولايات المراقبة. قمع المعارضة ليس تكتيكًا جديدًا، ولكنه أمر مخيف في ظل تزايد إمكانية الوصول إلى أدوات الذكاء الاصطناعي. وفي أحدث التطورات، أكدت المحكمة الأوروبية لحقوق الإنسان أن استخدام التعرف على الوجوه لتحديد مكان المتظاهر الروسي واعتقاله انتهاكًا لحقه في حرية التعبير والخصوصية.
يجب على الحكومات والمنظمات وضع استراتيجيات للحد من الاستخدام القمعي للذكاء الاصطناعي. إلى جانب منظمات المجتمع المدني والأوساط الأكاديمية والصناعية ، يجب على هذه الجهات الفاعلة فرض الامتثال للتشريعات مثل قانون الاتحاد الأوروبي للذكاء الاصطناعي. يجب أن ندافع عن الشفافية. الأطر الأخلاقية للتطبيق ضرورية. يمكن لهذه الأطر أن تخفف المخاطر وتعزز تطوير الذكاء الاصطناعي المسؤول. توفر شراكة الذكاء الاصطناعي إرشادات قابلة للتنفيذ من منظورات متنوعة حول الذكاء الاصطناعي. مثل هذه الأدوات يمكن أن تضمن التحقق من حقوق الإنسان وتوفر مستقبلًا اقتصاديًا شاملًا لاستخدام الذكاء الاصطناعي.
3. حقوق العمال والمبدعين: بصفتي صانعة محتوى، أجد هذه المسألة مزعجة للغاية. سرقة البيانات هي ممارسة مستمرة من قبل أنظمة الذكاء الاصطناعي، وأشهرها نظام إنشاء الصور الذكي Midjourney، الذي يستخدم الصور من جميع أنحاء الإنترنت لإنشاء أعمال مشتقة. وهذا يشكل تهديدًا للفنانين والمهنيين المبدعين. استخدام النماذج الذكية للمحتوى المحمي بحقوق النشر يثير مخاوف أخلاقية كبيرة. حاليًا لا يوجد سياسة "الموافقة المسبقة" أو نظام تعويض عادل للمبدعين الذين يتم استخدام أعمالهم من قبل هذه الأنظمة.
بالإضافة إلى ذلك، يمكن أن يؤدي الذكاء الاصطناعي إلى اضطراب أسواق العمل، مما يثير مخاوف حول حقوق العمّال. يمكن أن تؤدي التكنولوجيا التشغيلية والتكنولوجيا القائمة على الذكاء الاصطناعي إلى تحويل الوظائف. هذه التكنولوجيات توسع الفوارق الاجتماعية والاقتصادية. وهي تشكل تحديًا لحقوق العمل وسبل العيش. يجب علينا التأكد من توزيع فوائد الذكاء الاصطناعي بشكل منصف. الشبكات الاجتماعية الاقتصادية المناسبة ضرورية لحماية حقوق الأفراد الاقتصادية.
4. مركزية السلطة: عندما أرى المزيد من عمالقة التكنولوجيا ينضمون إلى سباق الفئران الذكاء الاصطناعي، يتبادر إلى ذهني السؤال: هل هذه الشركات حقاً بحاجة إلى مزيد من السلطة والربح؟
هذا جانب آخر مقلق في مجال الذكاء الاصطناعي - تركيز السلطة والربح في أيدي قلة من المليارديرات في مجال التكنولوجيا. الذكاء الاصطناعي كما هو الآن يسهم في استمرار تفاوت الثروات. ويتيح لشركات التكنولوجيا الكبيرة التهرب من المسؤولية عن الأضرار التي تسببها أنظمة الذكاء الاصطناعي. لذلك عدم وجود تنظيم في هذه الصناعة يزيد من تفاقم هذه المشكلات.
هذا هو السبب في أن تطوير الذكاء الاصطناعي يتطلب أطرًا تنظيمية شاملة لحماية حقوق الإنسان. تيمنيت جبرو هي شخصية بارزة في مجال الذكاء الاصطناعي وحقوق الإنسان. أسست تيمنيت جبرو معهد الذكاء الاصطناعي الموزع للبحوث (DAIR) والأسود في الذكاء الاصطناعي (Black in AI). يركز عملها على التخفيف من أضرار أنظمة الذكاء الاصطناعي الحالية والدعوة إلى مستقبل للذكاء الاصطناعي يتضمن وجهات نظر متنوعة وقرارات تطوير مدروسة. تسلط مساهماتها الضوء على الفاعلية التي يمتلكها البشر في تشكيل الأدوات التي نبتكرها. ومثل هذا العمل يمنحني بصيصًا من الأمل في إمكانية الوصول إلى حلول أفضل.
قدمت كل من ولايتي كاليفورنيا وواشنطن أمثلة إيجابية لجهود تنظيم الذكاء الاصطناعي الناجحة. ومع ذلك، يجب أن نظل على دراية بالطرق التي يمكن بها أيضًا استخدام اللوائح كسلاح ضد المدافعين عن حقوق الإنسان، كما رأينا في حالة تويتر. بالإضافة إلى ذلك، فإن التنظيم الدولي للذكاء الاصطناعي يمثل تحديات. حيث يصعب على الأمم المتحدة الإشراف الفعال على المعايير الأخلاقية وتطبيقها عبر الدول.
يعد التأثير البيئي لأنظمة الذكاء الاصطناعي مصدر قلق بالغ الأهمية. من السهل علينا الاعتقاد بأن كل هذه البنية الأساسية موجودة "في السحاب" ولا تؤثر على الأشخاص الحقيقيين. الحقيقة هي أن مراكز البيانات التي تدعم تقنيات الذكاء الاصطناعي تستهلك كميات كبيرة من المياه والطاقة. مرة أخرى ، تؤثر تأثيرات المناخ بشكل غير متناسب على الفئات الأكثر ضعفًا في العالم. بشكل عام ، هناك ما يبرر الشك تجاه شركات التكنولوجيا الكبيرة. يجب أن نتأكد من أن سيطرتهم الاحتكارية لن تزيد من قمع المجتمعات المهمشة.
دعونا نبني العالم الذي نريد أن نعيش فيه.
ظهور الذكاء الاصطناعي في مختلف المجالات يطرح تساؤلات حول النوع من العالم الذي نريد أن نعيش فيه. هل نريد العيش في عالم يتم فيه أتمتة تفاعلاتنا اليومية مع الآخرين بواسطة أنظمة مثل الذكاء الاصطناعي؟ أنا بالتأكيد أفضل الذهاب في الاتجاه الآخر، الذي يقدر ارتباطنا ببعضنا البعض وبالكوكب.
على الرغم من واقع التكنولوجي الجديد، فإن العديد من المخاوف المذكورة أعلاه ليست جديدة، ولكنها قضايا قديمة تتداخل مع التكنولوجيا الجديدة. تتطلب معالجتها استراتيجية متعددة الأوجه وتكتيكات جديدة ومبتكرة. وسيكون من الضروري:
- التمسك بالمساءلة للمؤسسات عن أفعالها. ينطوي ذلك على وضع تشريعات وإرشادات أخلاقية قوية. الحواجز الواقية أمر ضروري لضمان الممارسات الأخلاقية في تطوير ونشر الذكاء الاصطناعي.
- بناء نظام بيئي مرن للمجتمع المدني يدافع عن حقوق الإنسان للأفراد قبل التقدم في مجال التكنولوجيا.
هناك بالفعل أنظمة كافية تعمل ضد أكثر الفئات ضعفًا في العالم. يجب أن نكون على يقين مع كل نظام جديد يتم وضعه، أننا نحمي حقوق الإنسان وكرامة جميع المتأثرين.
لمزيد من المعلومات حول المنظمات المشاركة في هذا العمل، يمكنك الاطلاع على تقرير الصندوق الأوروبي للذكاء الاصطناعي والمجتمع حول الفرص والعقبات التي تحول دون المشاركة الخيرية المتزايدة حول الذكاء الاصطناعي.
ساهمت ميليسا ماكنيلي في هذا المنظور، وهي مديرة إنشاء المحتوى الرقمي في برنامج التكتيكات الجديدة في حقوق الإنسان
- دخولتسجيل الدخول أو إنشاء حساب جديد للتعليق.