تقلل إرشادات البيت الأبيض الجديدة من أهمية أضرار الذكاء الاصطناعي

بعد فبراير 2019 الأمر التنفيذي ، أصدر مكتب الإدارة والميزانية في الولايات المتحدة (OMB) التوجيه النهائي بشأن تنظيم الذكاء الاصطناعي (AI) في 17 نوفمبر 2020. تعرض هذه الوثيقة استراتيجية الحكومة الأمريكية تجاه الرقابة على الذكاء الاصطناعي ، وبالتالي فهي تستحق التدقيق الدقيق. توجيهات البيت الأبيض منطقية وتعكس فهمًا دقيقًا للذكاء الاصطناعي ؛ ومع ذلك ، هناك أيضًا أسباب حقيقية للقلق فيما يتعلق بالتأثير طويل المدى على تنظيم الذكاء الاصطناعي.

للبدء ، هناك العديد من الجوانب الإيجابية لإرشادات البيت الأبيض التنظيمية للذكاء الاصطناعي. نطاقه معقول ، مع الاعتراف بأن تنظيم القطاع الخاص للذكاء الاصطناعي يختلف اختلافًا جوهريًا عن نشر الحكومة لأنظمة الذكاء الاصطناعي ، تاركًا الأخير لوثيقة منفصلة. كما يناقش بشكل مناسب نهجًا للذكاء الاصطناعي حيث يكون التنظيم خاصًا بالقطاع ونوع تطبيق الذكاء الاصطناعي ، بدلاً من السياسات الشاملة الواسعة التي لا معنى لها عبر النطاق الواسع لاستخدام الذكاء الاصطناعي. تتخذ وثيقة OMB نهجًا قائمًا على المخاطر ، مما يشير إلى إعطاء الأولوية لحماية أقوى لأنظمة الذكاء الاصطناعي التي تظهر احتمالية مخاطر أعلى. كما تطالب الوثيقة الوكالات الفيدرالية بالعمل مع هيئات المعايير ، وتطلب منهم على وجه التحديد الالتزام بمعايير المعهد الوطني للمعايير والتكنولوجيا خطة المشاركة الفيدرالية لتطوير المعايير الفنية للذكاء الاصطناعي .

الجوانب الأخرى من التوجيه أقل إيجابية. إن لهجة الوثيقة شديدة الإصرار على الوعد بتطوير الذكاء الاصطناعي والابتكار ، خاصة بالنسبة للنمو الاقتصادي ، وتعتبر الكتابة التي تعزز الابتكار ونمو الذكاء الاصطناعي من أولويات حكومة الولايات المتحدة. هذا أمر مفهوم ، كما يقول الاقتصاد الرقمي لما يزيد عن 9٪ من الناتج المحلي الإجمالي وكان ينمو بمعدل 6.8٪ سنويًا قبل جائحة COVID-19. يُعد الذكاء الاصطناعي جزءًا كبيرًا من هذا القطاع ، ويتوسع ليشمل العديد من القطاعات الأخرى أيضًا. ومع ذلك ، في حين أن القيمة الاقتصادية للذكاء الاصطناعي مهمة ، تركز الإرشادات بشكل مفرط على القول بأن التنظيم لا ينبغي أن يعيق ابتكاره ونشره. تشير الوثيقة إلى سلسلة من الأساليب غير التنظيمية للذكاء الاصطناعي وتحتوي على قسم خاص بتقليل الحواجز التي تحول دون نشر واستخدام الذكاء الاصطناعي ، ولكن لا يتم موازنة ذلك من خلال سياق واسع لأضرار الذكاء الاصطناعي.



تنص إرشادات OMB بشكل بارز على أن العديد من تطبيقات الذكاء الاصطناعي لا تثير بالضرورة قضايا جديدة. هذا الادعاء صحيح جزئيًا ، حيث لا تحتاج الحكومة إلى الاهتمام بالعديد من تطبيقات الذكاء الاصطناعي. ومع ذلك ، فإن العكس صحيح أيضًا: فالعديد من تطبيقات الذكاء الاصطناعي في القطاع الخاص تثير بالتأكيد قضايا جديدة. يمكن لأنظمة الذكاء الاصطناعي تنظيم التمييز وإعادة توزيع السلطة بعيدًا عن المستهلكين وموظفي الخطوط الأمامية. يمكن لأنظمة الذكاء الاصطناعي أيضًا تمكين مراقبة الشركات على نطاق واسع. يمكنهم القيام بكل هذا ، مع جعل فهم العمليات أكثر صعوبة بالنسبة للأفراد ، ومن المحتمل أن يقوضوا اللجوء القانوني إلى الأضرار.

في السنوات الأخيرة ، شهدت الإنتاجية انخفاضًا عالميًا.

لم يتم تجاهل هذه القضايا بالكامل في وثيقة البيت الأبيض. يسرد عشرة مبادئ للإشراف على تطبيقات الذكاء الاصطناعي ، والتي تتوافق مع توصيات كبار خبراء الذكاء الاصطناعي الأخلاقي. وتشمل هذه القائمة: الثقة العامة في الذكاء الاصطناعي ، والمشاركة العامة ، وتقييم المخاطر وإدارتها ، والإنصاف وعدم التمييز ، والإفصاح والشفافية. تكمن المشكلة في أن هذه المعايير صيغت كقائمة مراجعة يجب العمل عليها قبل أن تتمكن الوكالات من تنفيذ أي قواعد جديدة بشأن الذكاء الاصطناعي. قبل قائمة المبادئ مباشرة ، يجب على الوكالات الإرشادية أن تنظر في اللوائح الجديدة فقط ... في ضوء القسم السابق ... أن اللوائح الفيدرالية ضرورية. مقترنًا بالإطار الأوسع المضاد للتنظيم للوثيقة ، يشير هذا إلى وجود نية لاستباق الإجراءات التنظيمية.

الوقائية مشكلة لأننا نعلم بالفعل أن هناك مجالات تتطلب تطبيقًا وتنظيمًا أكثر صرامة. إدارة الغذاء والدواء هي النظر في كيفية تكييف قواعدهم لضمان سلامة الأجهزة الطبية المعززة بالذكاء الاصطناعي مع السماح بتحديثها ببيانات جديدة. سيتعين على وزارة العمل ولجنة تكافؤ فرص العمل النظر في كيفية تأثير الأدوات الخوارزمية على تعويض العمال ، وسلامة مكان العمل ، وعمليات التوظيف. يجب أن تتعلم الخدمات الصحية والإنسانية كيفية التنفيذ الحماية القانونية لعدم التمييز على الخدمات الصحية المخصصة حسابيًا. وبالمثل وزارة النقل يحتاج إلى قواعد جديدة لضمان سلامة المركبات المستقلة.

في غياب اللوائح وعمليات الإنفاذ المحدثة ، يجعل الوضع الراهن من السهل الالتفاف على القانون باستخدام الخوارزميات. الإشراف على الخوارزميات يتطلب أفكارًا جديدة والخبرة الفنية والقدرة الإضافية ، ويجب على البيت الأبيض ومكتب الإدارة والميزانية تشجيع الوكالات على معالجة المخاطر الجديدة للذكاء الاصطناعي. لسوء الحظ ، في قاعدة نهائية بشأن معايير التأثير المتباينة ، تجاهل الإسكان والتنمية الحضرية التحديات الجديدة للذكاء الاصطناعي ، مما يجعلها مستحيلة للمدعين لإثبات تعرضهم للتمييز من قبل الخوارزميات.

ما الحجة لصالح التخصيص؟

بالإضافة إلى التأثير المباشر على وضع قواعد الوكالة ، يمكن أن يؤثر هذا التوجيه أيضًا على الدور المستقبلي لمكتب إدارة المكاتب ، وخاصة ذراع المراجعة التنظيمية ، مكتب المعلومات والشؤون التنظيمية (OIRA). في أوقات من تاريخها الأربعين ، لعبت OIRA دور حارس البوابة التنظيمية النشط. يركز هذا الدور بشكل خاص على 'الإجراءات التنظيمية المهمة' ، والتي تتضمن القواعد التي يُقدر أن لها تأثيرًا اقتصاديًا يزيد عن 100 مليون دولار أو بدلاً من ذلك اللوائح التي إثارة قضايا قانونية أو سياسية جديدة . في حين أن بعض لوائح الذكاء الاصطناعي من المحتمل أن تفي بمعايير التأثير الاقتصادي ، فمن المؤكد أن الكثير منها سيثير قضايا جديدة في القانون والسياسة. قد لا يتمتع موظفو OIRA الصغيرون نسبيًا ، والمنقسمون إلى مجموعات مخصصة لوكالات فيدرالية مختلفة ، بالخبرة اللازمة في مجال الذكاء الاصطناعي للتأثير بشكل فعال على هذه القواعد الجديدة الناشئة. من غير المؤكد بالضبط كيف ستتطور هذه المشكلة ، ولكن من المحتمل أن تؤدي إرشادات البيت الأبيض ، كما فسرها OIRA ، إلى خلق أعباء امتثال جديدة.

قد لا يستغرق الأمر وقتًا طويلاً لمعرفة التأثير الذي سيكون لهذه الإرشادات. ربما تكون مساهمته الأكثر قيمة في هذا التوجيه هي أنه يدعو الوكالات الفيدرالية إلى تقديم خطط الامتثال في غضون ستة أشهر (بحلول 17 مايو 2021). مع تدفق التعيينات الجديدة من إدارة بايدن ، من الممكن أن تدفع هذه الوثيقة أفكارًا جديدة ودرجة غير مسبوقة من الإجراءات لبناء لوائح منظمة العفو الدولية المعقولة والفعالة. نأمل أن تعمل OIRA بشكل أساسي على تعزيز تبادل المعرفة والتعاون بين الوكالات ، كما جادل كاس سنستين .

هذا قد يكون صحيحا. ومع ذلك ، لا يزال هناك سبب للقلق في صياغة هذه الوثيقة ، وسوف يعتمد تأثيرها بشكل كبير على كيفية تفسيرها والتعامل معها من قبل موظفي الوكالة في المستقبل. من الصعب أن نتخيل أن تغيير هذا التوجيه سيكون أولوية رئيسية للبيت الأبيض في بايدن ، بالنظر إلى جميع مشاكله الملحة الأخرى. ومع ذلك ، هناك خطر حقيقي من أن تصبح هذه الوثيقة قوة للحفاظ على الوضع الراهن ، بدلاً من معالجة أضرار الذكاء الاصطناعي الخطيرة.