أصبحت طموحات العديد من دول العالم في مجال التكنولوجيا الحديثة وتطوير تقنيات الذكاء الاصطناعي، تشكل تحدياً حقيقياً بالنسبة للدول العظمى، وأصبح التنافس بينهما على أشده، وبدأت تتعالى أصوات زعماء العالم مطالبة بلوائح تنظيمية جريئة تحكم هذا الذكاء.
ويدرس الاتحاد الأوروبي حالياً تطبيق ضوابط تلزم مطوري تقنيات الذكاء الاصطناعي لضمان تطوير هذه التقنيات واستخدامها وفق أساليب أخلاقية. وتستعد المفوضية الأوروبية لاقتراح القواعد الجديدة وتطبيقها في القطاعات الأكثر خطورة مثل الرعاية الصحية والنقل، حسبما جاء في مسودة لوثيقة أطلق عليها اسم “الورقة البيضاء” بشأن الذكاء الاصطناعي.
ومن المقرر أن تكشف الذراع التنفيذية للاتحاد الأوروبي النقاب عن الوثيقة في الربع الأول من العام الجاري وذلك في إطار مساعي الاتحاد لمواكبة جهود الصين والولايات المتحدة فيما يتعلق بتطوير تقنيات الذكاء الاصطناعي، ولكن على نحو يتوافق مع القيم الأوروبية مثل الحفاظ على خصوصية المستخدم، والحد من تطوير الأسلحة الفتاكة.
ويرى العديد من النقاد أن هذه الخطوة الأوروبية يمكن أن تعيق الابتكار حول الذكاء الاصطناعي، فيما يرى مسؤولو الاتحاد الأوربي أن تنسيق القوانين في جميع أنحاء المنطقة سيعزز التنمية. ورفض متحدث باسم المفوضية الأوروبية التعقيب على الوثيقة المقترحة، ولكنه قال: “من أجل تعظيم الفوائد ومواجهة تحديات الذكاء الاصطناعي، يتعين على أوروبا أن تعمل ككيان واحد، وأن تحدد الطريق الخاص بها، وأن يكون طريقاً إنسانياً”.
مبادئ أمريكية
وتأتي الخطوة الأوروبية بالتزامن مع اقتراح البيت الأبيض، مبادئ تنظيمية تحكم تطوير واستخدام الذكاء الاصطناعي، للحد من “تجاوز” السلطات، داعياً الدول الأوروبية إلى تجنب “قتل الابتكارات”.
وتُعد هذه الخطوة أحدث تطور لمبادرة الذكاء الاصطناعي الأمريكية، التي أطلقها الرئيس دونالد ترامب بموجب أمر تنفيذي في أوائل العام 2019 بهدف إنشاء استراتيجية للذكاء الاصطناعي، كما أنها تمثل جزءاً من المساعي المتواصلة للحفاظ على الدور القيادي للولايات المتحدة في هذا المجال.
ويرى البيت الأبيض أنه يتعين على الوكالات الفيدرالية “تقييم المخاطر وتحليلات التكلفة والفوائد قبل أي إجراء تنظيمي بشأن الذكاء الاصطناعي، مع التركيز على إنشاء أطر مرنة بدلاً من تنظيم واحد يناسب الجميع”.
وتتضمن المبادئ التي أصدرها مكتب سياسات العلوم والتكنولوجيا في البيت الأبيض 3 أهداف رئيسية هي: ضمان المشاركة العامة، والحد من التجاوزات التنظيمية، والأهم من ذلك: تعزيز الذكاء الاصطناعي الجدير بالثقة والذي يتسم بالنزاهة والشفافية والأمان.
وقالت لين باركر، نائبة مدير شؤون التكنولوجيا في البيت الأبيض، خلال مؤتمر صحفي: “لقد تعمدنا تحديد هذه المبادئ بصورة عامة، لكي تسمح لكل وكالة بأن تضع لوائح تنظيمية أكثر تحديداً تتناسب مع القطاع الذي يخصها”.
وعلى صعيد التطبيق، سيُطلب من الوكالات الفدرالية الآن تقديم مذكرة إلى مكتب سياسات العلوم والتكنولوجيا في البيت الأبيض لشرح الكيفية التي تحقق بها أي لائحة تنظيمية مقترحة متعلقة بالذكاء الاصطناعي المبادئ المفروضة.
ويأتي اقتراح البيت الأبيض، في وقت تتسابق الشركات لدمج الذكاء الاصطناعي والتعلم الآلي العميق في أعمالها لتظل قادرة على المنافسة. لكن هذه التقنية تثير مخاوف أخلاقية حول التحكم والخصوصية والأمن السيبراني ومستقبل العمل، وفق ما ذكره الخبراء والشركات.
وقالت إدارة الرئيس دونالد ترامب إنه يجب على الوكالات “تعزيز الذكاء الاصطناعي الجدير بالثقة” و”مراعاة الإنصاف وعدم التمييز والانفتاح والشفافية والسلامة والأمن”.
وأشارت إلى أنه “يتعين على أوروبا وحلفائنا تجنب نماذج قتل الابتكارات”، معتبرة أن “أفضل طريقة لمواجهة الاستخدامات الاستبدادية للذكاء الاصطناعي تكون بالحرص على أن تبقى الولايات المتحدة وشركاءها الدوليين محور الابتكار العالمي”.