الذكاء الاصطناعي هو إما أفضل شيء أو أسوأ شيء يمكن أن يحدث للبشرية على الإطلاق”… من منطلق هذه العبارة التي أطلقها عالم الفيزياء ستيفن هوكينج تبرز أهمية مواجهة مخاطر الذكاء الاصطناعي.
إن تزوير صوت أو صورة أو مقطع فيديو والاستعانة به كمصدر لإثبات تهمة على الإنسان قد يودي بحياته أو يعرضه للظلم بطريقة تغير حياته للأسوأ… هذا ملخص مهم لعيوب التقنيات الحديثة.
يحتم الانتشار الواسع للذكاء الاصطناعي الاهتمام الكبير بالأخلاقيات، فهذا التحدى من أكبر ما يواجه التكنولوجيا التي لا تتوقف عن التطور، الأمر الذي يتطلب وضع قواعد للتعامل معها شرط ألا تخل بالغرض منها وهو خدمة الإنسان وألا يتحول الذكاء الاصطناعي من مجرد أدوات تساعد الإنسان وتسهل شؤونه إلى سبب لتكدير حياة البشر.
قيم واجب الحفاظ عليها
اتفق كثير من الخبراء على أن هناك قيم أساسية لابد من الحفاظ عليها في التعامل مع الذكاء الاصطناعي وهي: الشفافية، والعدالة والإنصاف، ومنع الضرر، والمسؤولية، وحماية البيانات والخصوصية.
الأمر لم يعد اختيارًا فيما يخص وضع مدونات سلوك في التعامل مع الذكاء الاصطناعي في ظل النمو الهائل والتطبيقات في مختلف القطاعات من الإعلام إلى الأمن والبيئة والبحث والتعليم والصحة والثقافة والتجارة وغيرها.
ويذهب خبراء إلى أن الذكاء الاصطناعي سيؤدي إلى شكل جديد من الحضارة الإنسانية. ومن الواجب تطويره من خلال نهج إنساني قائم على القيم وحقوق الإنسان.
الخصوصية وحماية البيانات
من الواجب التأكد من أن الخوارزميات لا تنتهك حقوق الإنسان الأساسية من الخصوصية وسرية البيانات إلى حرية الاختيار وحرية الضمير، وكذلك ضمان حرية التصرف عندما تكون رغباتنا متوقعة وموجهة بفضل الكم الهائل من البيانات التي تجمعها التكنولوجيا عن سلوكياتنا وتوقعات تصرفاتنا.
هناك إشكال آخر فيما يتعلق بأخلاقيات الذكاء الاصطناعي هو ضرورة عدم تكرار الصور النمطية الاجتماعية والثقافية في البرامج والتطبيقات الحديثة لا سيما عندما يتعلق الأمر بالتمييز بين الجنسين.
كما يجب التأكد من عدم حرمان أي شخص، أينما كان في العالم، من فوائد هذه التقنيات الحديثة. ومن المهم أيضًا ضمان تطوير الذكاء الاصطناعي بطريقة شفافة بحيث يكون للمواطنين العالميين الذين تتأثر حياتهم به رأي في تطويره، وألا يقتصر الأمر على أصحاب الأموال ممن يملكون كبرى شركات التقنية والأبحاث.
تقول منظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو) إنه يجب على العالم أن يضمن استخدام التكنولوجيات الجديدة لصالح مجتمعاتنا وتنميتها المستدامة، وتطورها بحيث تتوافق مع الحقوق الأساسية التي تشكل أفقنا الديمقراطي.
الإطار الأخلاقي.. مسؤولية دولية
من الضروري وضع إطار أخلاقي لتطوير الذكاء الاصطناعي، ويعني بهذا الأمر الجهات الفاعلة مثل الشركات ومراكز البحوث وأكاديميات العلوم والدول الأعضاء في الأمم المتحدة والمنظمات الدولية وجمعيات المجتمع المدني.
كذلك، فإن مشاركة دول العالم الثالث في التحولات المتعلقة بالذكاء الاصطناعي أمر مهم، ليس فقط كمستفيد ولكن أيضًا كمشارك من المنبع، والمساهمة بشكل مباشر في تنميتها.
كما يتعلق بالمساواة بين الجنسين، يجب أن نحارب التحيزات في مجتمعاتنا لضمان عدم تكرارها في التطبيقات الجديدة. وعلينا تمكين الشباب من خلال تزويدهم بالمهارات التي يحتاجونها للحياة والاندماج في سوق العمل المتغير.
ضرورة تنحية شعار المصلحة
الأمر المثير للغرابة هو أن بعض شركات التكنولوجيا العملاقة لا تستقر على تعريف واحد للأخلاقيات الواجب احترامها والالتزام بها، وكل ما تهتم به هو جمع سيل من البيانات الشخصية للمستخدمين والاستفادة منها دون ضوابط.
فقد أقدمت “غوغل” في العام 2021 على فصل اثنين من خبراء الأخلاقيات لديها بعد خلاف معهم. . وهو قرار يدعو إلى التساؤل عما إذا كان احترام القواعد الأخلاقية المحيطة بالذكاء الاصطناعي يندرج حقا ضمن الأولويات القصوى للشركات التكنولوجية الكبرى أم لا.
ومن هذا المنطق، فإنه من الواجب على الشخص الذي يُصمّم شيئاً جديداً (المطور) أن يتحمل مسؤولية معينة أيضا، ومحاولة تجنب الأشخاص أضرارا نتيجة هذه التقنية.
تهديد لوظائف البشر
في أوروبا، ظهرت جماعات ضد التقنيات الحديثة أو ما يمسونه “الروبوتات القاتلة” تؤكد هذه الجماعات أن التكنولوجيا قد لا تعرض الوظائف للخطر فحسب، ولكن الناس أيضاً.
ومن المتوقع يؤدي استخدام الذكاء الاصطناعي في مكان العمل إلى تقليص عدد الوظائف عاجلاً وليس آجلاً. ووفق الأبحاث، يمكن للأنظمة الآلية حالياً إنجاز أكثر من نصف الأعمال التي يقوم به البَشَر بِشَكل أسرَع وأكثر كفاءة.
ويقترح البعض فَرض ضرائب على الروبوتات في حال تأديتها وظيفة يقوم بها الإنسان في العادة. وبرأيه، ينبغي استثمار الإيرادات المُتأتية من هذه الضريبة في تمويل نظام الضمان الاجتماعي وتدريب العاطلين عن العمل.
وفيما يلي شرح لبعض المبادئ التي تتعلق بأخلاقيات الذكاء الاصطناعي:
الشمولية
أن ينفع الذكاء الاصطناعي كافة أفراد المجتمع، كما يجب أن تُطبق عليه الحوكمة عالمياً، مع احترام كرامة الأفراد وحقوقهم.
البشرية
أن يفيد الذكاء الاصطناعي البشرية وينسجم مع القيم الإنسانية، على الأمدين القصير والبعيد.
الأمان
أن تكون أنظمة الذكاء الاصطناعي آمنة كما يجب أن تسخر في خدمة وحماية الإنسانية.
الأخلاقيات
يجب أن تكون أنظمة الذكاء الاصطناعي عادلة وتطبق الشفافية وخاضعة للمساءلة وقابلة للفهم.