البيت الأبيض يتبنى قواعد جديدة لتنظيم أدوات الذكاء الاصطناعي
قالت نائبة الرئيس الأميركي كامالا هاريس، إنه يتعين على الوكالات الفيدرالية الأميركية إثبات أن أدوات الذكاء الاصطناعي الخاصة بها لا تضر الجمهور أو تتوقف عن استخدامها، بموجب القواعد الجديدة التي كشف عنها البيت الأبيض اليوم الخميس.
وأضافت هاريس للصحافيين قبل ال عن القواعد الجديدة: "تستخدم الوكالات الحكومية أدوات الذكاء الاصطناعي، سنطلب منها الآن التحقق من أن هذه الأدوات لا تعرض حقوق الشعب الأميركي وسلامته للخطر".
بموجب القواعد، يجب أن تكون لدى كل وكالة بحلول ديسمبر/ كانون الأول المقبل مجموعة من الضمانات الملموسة التي توجه كل شيء بدءا من فحوصات التعرف على الوجه في المطارات إلى أدوات الذكاء الاصطناعي التي تساعد في التحكم في الشبكة الكهربائية أو تحديد الرهون العقارية والتأمين على المنازل.
التوجيه السياسي الجديد، الذي أصدره مكتب الإدارة والميزانية بالبيت الأبيض لرؤساء الوكالات، اليوم الخميس، يأتي ضمن الأمر التنفيذي الأكثر شمولا للذكاء الاصطناعي، والذي وقعه الرئيس جو بايدن في أكتوبر/ تشرين الأول الماضي.
وبينما يحاول بايدن من خلال الأمر الذي وقعه حماية أنظمة الذكاء الاصطناعي التجارية الأكثر تقدما، والتي تصنعها شركات التكنولوجيا الرائدة مثل تلك التي تعمل على تشغيل روبوتات الدردشة المولدة للذكاء الاصطناعي، فإن القواعد التي أعلنتها هاريس اليوم تستهدف أدوات الذكاء الاصطناعي التي تستخدمها الوكالات الحكومية لسنوات للمساعدة في اتخاذ القرارات المتعلقة بالهجرة والإسكان ورعاية الأطفال ومجموعة من الخدمات الأخرى.
وعلى سبيل المثال، رأت هاريس أنه "إذا أرادت إدارة المحاربين القدامى استخدام الذكاء الاصطناعي في مستشفيات فرجينيا لمساعدة الأطباء على تشخيص المرضى، فسيتعين عليهم أولا إثبات أن هذا الذكاء الاصطناعي لا ينتج تشخيصات متحيزة عنصريا".
وبحسب البيت الأبيض، يجب على الوكالات التي لا تستطيع تقديم الضمانات "التوقف عن استخدام نظام الذكاء الاصطناعي، ما لم تبرر قيادة الوكالة سبب زيادة المخاطر على السلامة أو الحقوق أو خلق عائق غير مقبول أمام عمليات الوكالة المهمة".
(أسوشييتد برس)
مشاركة الخبر: البيت الأبيض يتبنى قواعد جديدة لتنظيم أدوات الذكاء الاصطناعي على وسائل التواصل من نيوز فور مي