دعا "إعلان الدوحة"، في "المؤتمر الدولي للذكاء الاصطناعي وحقوق الإنسان"، الذي نظّمته اللجنة الوطنية لحقوق الإنسان في قطر، بمشاركة عدد من الشركاء المحليين والدوليين، واختتم أعماله اليوم الأربعاء، "إلى إدماج حقوق الإنسان في صميم تطوير الذكاء الاصطناعي ونشره وتنظيمه، لضمان أن تدعم هذه التقنيات الكرامة، والفاعلية، والاستقلالية، والشمول، والمساءلة، والسعي لحوكمة عالمية للذكاء الاصطناعي لمعالجة الآثار الواسعة والعميقة المحتملة على حقوق الإنسان".
أبرز توصيات "إعلان الدوحة"
أكد "إعلان الدوحة"، الذي صدر في ختام أعمال المؤتمر، الذي شارك في أعماله نحو 800 خبير في تقنيات الذكاء الاصطناعي وشخصيات حقوقية عربية ودولية، ضمان المشاركة النشطة والحرة والهادفة لمجموعة واسعة من أصحاب المصلحة، بمن فيهم النساء والشباب والأشخاص ذوو الإعاقة والأصوات المهمشة، في تصميم أنظمة الذكاء الاصطناعي وحوكمتها على المستويات الوطنية والإقليمية والدولية، بما يتماشى مع القانون الدولي لحقوق الإنسان.
كما أكد البيان الختامي للمؤتمر، الذي أعلن توصياته الأمين العام للجنة الوطنية لحقوق الانسان في قطر سلطان حسن الجمالي، ضرورة رصد الهجمات الإلكترونية وتلك التي تُشن باستخدام الذكاء الاصطناعي، التي تستهدف المرشحات والسياسيات والمدافعات عن حقوق الإنسان والناشطات، والإبلاغ عنها، وضمان توفير الحماية القانونية، والوصول إلى سبل انتصاف فعّالة، فضلاً عن تسهيل التعاون الدولي، وتقاسم القدرات، والوصول العادل إلى فوائد الذكاء الاصطناعي في جميع المناطق، لا سيما دعماً للدول النامية، بما يتماشى مع مبادئ التضامن والمسؤولية المشتركة.
وطالب "إعلان الدوحة" في المؤتمر المجتمعَ الدولي برصد استعمال أنظمة الذكاء الاصطناعي في العمليات العسكرية والتحقيق فيها، لضمان مواءمتها مع مبادئ القانون الدولي الإنساني والقانون الدولي لحقوق الإنسان، وضمان اتخاذ القرارات البشرية في مجالات إقامة العدل، والرعاية الصحية، والحماية الاجتماعية، وإنفاذ القانون، والمجال العسكري، وضمان استكمال استخدام الذكاء الاصطناعي في جميع القطاعات بإشراف بشري، وحظر أي تطبيقات وأدوات للذكاء الاصطناعي تُشكل مخاطر جسيمة على حقوق الإنسان لا يمكن التخفيف منها.
ودعا "إعلان الدوحة" إلى حظر أنظمة الذكاء الاصطناعي العسكرية التي لا تعمل وفقاً للقانون الدولي لحقوق الإنسان والقانون الإنساني الدولي، وإلى ضرورة اعتماد وتعزيز تشريعات حماية البيانات القائمة على مبادئ الشرعية، وتقليل استخدام البيانات، وتحديد الغرض، والنزاهة، والسرية، والمساءلة، والشفافية، والتي تضمن المساواة وحرية الأفراد من خلال ضمانات فعّالة ضد الوصول غير المصرح به إلى البيانات الشخصية واستخدامها والإفصاح عنها، بما في ذلك لأغراض الذكاء الاصطناعي.
كذلك، دعا "إعلان الدوحة" إلى التشفير، وإنشاء هيئات مستقلة لحماية البيانات، ومنحها الصلاحيات والموارد اللازمة للإشراف الفعّال على الامتثال وتطبيق المساءلة، بما في ذلك إلزام مطوري الذكاء الاصطناعي بالاحتفاظ بسجلات مفصلة للبيانات الشخصية المستخدمة في تدريب نماذجهم للإفصاح عنها بما يخدم المصلحة العامة.
وأكد "إعلان الدوحة" فرض الإفصاح عن استخدام الذكاء الاصطناعي في جميع المجالات (بما في ذلك الخطاب السياسي، والخدمات العامة، والتطبيقات العسكرية)، وفرض إمكانية شرح الخوارزميات، وتمكين عمليات التدقيق المستقلة، ونشر تقييمات الأثر على حقوق الإنسان، وإتاحة المعلومات المتعلقة بتصميم أنظمة الذكاء الاصطناعي واستخدامها وضماناتها، إضافة إلى إنشاء آليات قوية للمساءلة والإنصاف من خلال تحديد مسؤوليات قانونية واضحة لجميع الجهات الفاعلة المشاركة في تطوير الذكاء الاصطناعي ونشره، وخيارات انتصاف متاحة للأفراد المتضررين، وهيئات رقابية مدربة تدريباً خاصاً، وبناء قدرات محددة لصانعي السياسات والمسؤولين الحكوميين وعامة الناس حول آثار الذكاء الاصطناعي.
وشدّد "إعلان الدوحة" على أهمية الاستثمار في محو الأمية الرقمية والمتعلقة بالذكاء الاصطناعي، ودمجها في النظم التعليمية، وتدريب صانعي السياسات لدعم اتخاذ القرارات المستنيرة، وتعزيز التعلم مدى الحياة، وضمان فهم الآثار التقنية والاجتماعية والأخلاقية والقانونية للذكاء الاصطناعي.
ضوابط قانونية تنظم استخدام الذكاء الاصطناعي
كان "المؤتمر الدولي للذكاء الاصطناعي وحقوق الإنسان" قد ناقش على مدى يومين أوراق عمل حول تأثيرات استخدام الذكاء الاصطناعي في مجالات عدة، منها النزاعات المسلحة، إذ أكد مشاركون وخبراء أن الذكاء الاصطناعي أحدث تحولاً سريعاً في الأمن القومي والعمليات العسكرية، موفراً أدوات فعّالة للرقابة وكشف الأسلحة، وجمع المعلومات الاستخبارية، وحتى أنظمة الأسلحة ذاتية التشغيل.
وأوضح المؤتمر أنه على الرغم من تعزيز تقنيات السلامة العامة والفعالية التشغيلية، فإنها تثير أيضاً مخاوف جوهرية تتعلق بحقوق الإنسان والأخلاق. ولفت مستشار نائب رئيس مجلس الوزراء ووزير الدولة لشؤون الدفاع القطري، اللواء عبد العزيز فلاح الدوسري، في ورقة عمل قدمها في المؤتمر، إلى أن هناك تحديات تواجه استخدام الذكاء الاصطناعي في المجال العسكري، والتي تتقاطع مع حقوق الإنسان والمبادئ الدولية الخاصة بذلك، مما يفرض أهمية التوصل لإطار حازم وصارم لضمان سلامة الأفراد وحماية الكرامة الإنسانية ومنع الانتهاكات الجسيمة. ومن هذه التحديات المساءلة، إذ لا يوجد كيان أو شخص محدد يمكن توجيه الاتهام إليه نتيجة اتخاذ الآلة القرار في العمليات العسكرية. وتابع أن من بين التحديات أيضاً إعادة إنتاج التمييز العنصري بناءً على بيانات يجري تزويد الآلة بها، وكذلك فقد السيطرة على بعض الأسلحة، وغيرها من التحديات التي تفرض أهمية التصدي العالمي لها.
وحذّرت الرئيسة التنفيذية لشركة آي كويليبريوم إيه أي في المكسيك، خيمينا صوفيا فيفيروس ألفاريز، من المخاطر الجسيمة التي يشكلها استخدام الذكاء الاصطناعي في الأنظمة العسكرية، مؤكدةً أن هذه التكنولوجيا تفتح الباب أمام انتهاكات خطيرة للقانون الدولي الإنساني، وتفاقم التهديدات الموجهة للمدنيين في ساحات النزاع. وأشارت إلى أن أنظمة دعم القرار المبنية على الذكاء الاصطناعي باتت تُستخدم فعلياً في العمليات العسكرية لتحديد الأهداف وتنفيذ الضربات، مما يزيد من صعوبة التحقق من مدى قانونية هذه القرارات أو أخلاقيتها.
وقالت إن الادعاءات بأن الذكاء الاصطناعي يجعل العمليات العسكرية أكثر دقة وأقل ضرراً قد تكون مضللة، لأن هذه الأنظمة غالباً ما تعاني من التحيز في البيانات، وضعف القدرة على التكيف، والقرارات غير القابلة للتفسير، محذّرةً من ظاهرة الانحياز الآلي التي تجعل القادة العسكريين يثقون بتوصيات النظام من دون تدقيق أو مساءلة حقيقية.
وأضافت أن إدخال الذكاء الاصطناعي في ساحات المعارك يزيد من تعقيد المساءلة، ويضعف مبدأ السيطرة البشرية، ويعرض أرواح المدنيين لخطر أكبر بسبب احتمال تصنيفهم بشكل خاطئ أهدافاً مشروعة. ودعت ألفاريز إلى ضرورة تبني أطر قانونية دولية واضحة تضمن الشفافية والمحاسبة، وتحظر الاستخدام غير المنضبط للذكاء الاصطناعي في المجال العسكري، بما يحفظ الكرامة الإنسانية ويصون أرواح الأبرياء في مناطق النزاع.
من جهتها، قالت المستشارة القانونية لوحدة الأسلحة والأعمال العدائية في الإدارة القانونية للجنة الدولية للصليب الأحمر، هايدي قنديل، إن استخدام الذكاء الاصطناعي في العمليات العسكرية بات يثير مخاوف قانونية وأخلاقية وإنسانية عميقة، مشيرةً إلى أن اللجنة تركز في متابعتها على ثلاثة تطبيقات عسكرية رئيسية تثير القلق، وهي العمليات السيبرانية والمعلوماتية، والأسلحة الذاتية التشغيل، وأنظمة دعم القرار القائمة على الذكاء الاصطناعي.
وأوضحت أن أخطر ما في الأسلحة الذاتية هو أنها، بمجرد تفعيلها، تختار وتهاجم أهدافاً من دون أي تدخل بشري إضافي، مما يعني أن المشغّل البشري لا يحدد الهدف ولا توقيت الهجوم ومكانه، وهو ما يشكل انتهاكاً جوهرياً لقواعد التمييز والاحتياطات المنصوص عليها في القانون الدولي الإنساني، لافتةً إلى أن الأسلحة الذاتية لا تمتلك القدرة على التقاط إشارات إنسانية أساسية مثل نية الاستسلام أو الإصابة أو عدم القدرة على القتال، مما يعرّض المدنيين والأشخاص المحميين لخطر جسيم. ودعت قنديل إلى وضع ضوابط قانونية واضحة وصارمة تنظّم استخدام الذكاء الاصطناعي في النزاعات المسلحة، بما يضمن احترام القانون الدولي الإنساني.
"المؤتمر الدولي للذكاء الاصطناعي وحقوق الإنسان" والعنف ضد المرأة
وأشارت المقررة الخاصة للأمم المتحدة المعنية بالعنف ضد المرأة والفتيات، ريم السالم، في ورقة عمل قدمتها حول الذكاء الاصطناعي والعنف ضد النساء والفتيات، إلى أن الانتقال الرقمي أثّر بطريقة متفاوتة على الإناث، إذ إن 80 % من الهجمات الإلكترونية تمسّ جنس الإناث، إذ تسهّل التكنولوجيا عملية ممارسة العنف ضد الإناث والفتيات، مما يعزز فكرة الرؤية الدونية تجاه المرأة.
وقالت السالم إن استخدام الذكاء الاصطناعي سهّل عملية التحرش ضد المرأة، وأن ما نسبته 95% من السيدات اللواتي شاركن في استبيان أُعدّ لهذا الغرض أجبن بأنهن تعرضن إلى عنف إلكتروني، خاصة ذلك الذي يأخذ شكل التنمر، وأغلبية هذا العنف يأتي في شكل صور جنسية. ولفتت إلى أن هذه الصور أصبحت مألوفة وتستخدم لغايات جنسية، إذ سهل الذكاء الاصطناعي عملية الوصول إلى بيانات السيدات، والتعرف إلى حياتهم الشخصية والاطلاع عليها، وما كان صعباً أصبح واقعاً معاشاً، بعدما اتخذ العنف أشكالاً عدة، منها البدني والسيكولوجي. وحذّرت من أن هذا يعرّض الكثير من الفتيات للانتحار، كما يقلل من فرص انخراط المرأة في المجال الرقمي. ودعت السالم إلى ضرورة إيجاد منظومة للخوارزميات تتفادى التحيز الجنسي، ونظام خوارزمي يحترم حقوق المرأة ويصون كرامتها.
