دعا كبار المستشارين العلميين للرئيس الأمريكي «جو بايدن»، إلى فرض «قانون حقوق» جديد للحماية من تكنولوجيا الذكاء الاصطناعي الجديدة القوية.
وأطلق مكتب سياسة العلوم والتكنولوجيا بالبيت الأبيض مهمة تقصي حقائق للنظر في تكنولوجيا التعرف على الوجه وأدوات القياسات الحيوية الأخرى المستخدمة لتحديد الأشخاص أو تقييم حالاتهم العاطفية أو النفسية وشخصياتهم.
الاستخدامات الخاطئة للذكاء الاصطناعي
كما نشر كبير مستشاري بايدن العلميين، «إريك لاندر»، ونائب مدير العلوم والمجتمع، «ألوندرا نيلسون»، مقال رأي في مجلة «وايرد» التقنية الأمريكية يشرحان فيه بالتفصيل الحاجة إلى تطوير ضمانات جديدة ضد الاستخدامات الخاطئة والضارة للذكاء الاصطناعي التي يمكن أن تميز بشكل غير عادل ضد الناس أو تنتهك خصوصياتهم، داعين إلى وضع وثيقة حقوق (bill of rights) جديدة للحماية من تكنولوجيا الذكاء الاصطناعي الجديدة القوية، على غرار وثيقة الحقوق الشهيرة التي ضمت التعديلات العشرة الأولى لدستور الولايات المتحدة.
وكتب المسؤولان: “يعد حصر الحقوق ذات الصلة مجرد خطوة أولى، ما الذي يمكننا فعله لحمايتهم؟ تشمل الاحتمالات رفض الحكومة الفيدرالية شراء البرامج أو المنتجات التكنولوجية التي لا تحترم هذه الحقوق؛ مما يتطلب من المتعاقدين مع الإدارة استخدام التقنيات التي تلتزم بميثاق الحقوق هذا، أو اعتماد قوانين وأنظمة جديدة لسد الثغرات”.
يذكر أن هذه ليست هذه هي المرة الأولى التي تعرب فيها إدارة بايدن عن مخاوفها بشأن الاستخدامات الضارة للذكاء الاصطناعي، لكنها واحدة من أوضح خطواتها للتصرف حيال ذلك.
وقد تبنى المنظمون الأوروبيون بالفعل تدابير لكبح تطبيقات الذكاء الاصطناعي الأخطر التي قد تهدد سلامة الناس أو حقوقهم؛ إذ اتخذ المشرعون في البرلمان الأوروبي خطوة مطلع أكتوبر الماضي لصالح حظر المراقبة الجماعية البيومترية، وهي تقنيات المراقبة عن بعد التي تعمل بالذكاء الاصطناعي، مثل تقنيات التعرف على الوجوه.
وقال أعضاء البرلمان إنه يجب على المشرعين في الاتحاد الأوروبي إصدار حظر دائم على التعرف المؤتمت على الأفراد في الأماكن العامة، مضيفين أنه يجب مراقبة المواطنين فقط عند الاشتباه في ارتكابهم جريمة.
كما دعا البرلمان أيضاً إلى حظر استخدام قواعد بيانات التعرف على الوجوه الخاصة، مثل نظام الذكاء الاصطناعي المثير للجدل الذي طورته شركة «كليرفيو»، وقال إن السياسات الشرطية التنبؤية القائمة على البيانات السلوكية يجب حظرها أيضاً.