كارثة ذكاء اصطناعي أميركي



كارثة الذكاء الاصطناعي: كيف أخطأت خوارزمية قديمة في إدارة عقود وزارة شؤون المحاربين القدامى الأمريكية؟

مقالة تحليلية حول استخدام الذكاء الاصطناعي في الإدارة الحكومية الأمريكية وآثاره الوخيمة.

فشل ذريع يُهدد كفاءة الإدارة الحكومية الأمريكية

شهدت الفترة الأخيرة فضيحةً جديدةً تُلقي بظلالٍ من الشك على فعالية استخدام تقنيات الذكاء الاصطناعي في الإدارة الحكومية الأمريكية. فقد كشف تقريرٌ استقصائيٌّ من موقع "بروبوبليكا" عن اعتماد إدارة الكفاءة الحكومية، التي رأسها آنذاك إيلون ماسك، على نموذج ذكاء اصطناعي قديم ومتخلف تقنيًا لإدارة عقود وزارة شؤون المحاربين القدامى. وقد أسفر هذا الاعتماد عن أخطاء كارثية أدت إلى تضخم قيمة بعض العقود بشكلٍ هائل، وإلى تقديرات خاطئة للحالة الصحية للمحاربين القدامى، مما أثار جدلاً واسعاً حول مخاطر الاعتماد على تقنيات غير مُختبرة في إدارة شؤون حساسة كهذه.

أخطاء فادحة في تقدير قيمة العقود

لم يقتصر الأمر على أخطاء بسيطة، بل وصلت إلى حدٍّ يُثير القلق. فقد أشار التقرير إلى أخطاء فادحة في قراءة قيمة العقود، حيثُ زادت قيمة بعض عقود الرعاية الصحية للمحاربين القدامى بمقدار 34 مليون دولار بدلاً من 34 ألف دولار. هذا الخطأ الهائل، والذي تكرر في أكثر من مناسبة، يُظهر بوضوح مدى خطورة الاعتماد على تقنيات ذكاء اصطناعي غير دقيقة وغير مُعيرة. يُطرح هنا سؤالٌ مُهمٌ: هل خضعت هذه التقنية لاختبارات كافية قبل تطبيقها على نطاق واسع؟ وما هي الضمانات التي تُقدمها الحكومة لضمان دقة البيانات المُعالجة من قبل هذه الخوارزميات؟

آثار واسعة النطاق على عقود وزارة شؤون المحاربين القدامى

لم تتوقف الأخطاء عند حدود تقدير قيمة العقود، بل امتدت لتشمل مجموعة واسعة من المشاريع. وقد أشار التقرير إلى أن إدارة الكفاءة قدمت تقريرًا يضم أكثر من 2000 عقد، بعضها مُعرضٌ للإلغاء. وقد قامت وزارة شؤون المحاربين القدامى بالفعل بإلغاء 600 عقد، منها 20 عقدًا كانت مدرجة في تقرير إدارة الكفاءة. ولكن يبقى الغموض يكتنف مصير باقي العقود، حيث رفضت الوزارة تقديم توضيحاتٍ واضحة لأعضاء مجلس الشيوخ الديمقراطيين الذين سعوا للتحقيق في هذا الأمر.

أمثلة على العقود المتأثرة بالخطأ

كشف تقرير "بروبوبليكا" عن بعض الأمثلة على العقود التي تأثرت سلبًا باستخدام نموذج الذكاء الاصطناعي الخاطئ. ومن بين هذه العقود: عقدٌ لصيانة جهاز تسلسل الجينات المستخدم في تطوير علاجات السرطان، وعقدٌ آخر لتحليل عينات الدم لدعم مشروع بحثي، بالإضافة إلى مشروع لقياس كفاءة فرق التمريض في التعامل مع المحاربين القدامى. تُظهر هذه الأمثلة مدى خطورة الأخطاء التي وقعت، والتي لم تقتصر على الجانب المالي، بل امتدت لتشمل البحث العلمي والرعاية الصحية.

انتقادات حادة لاستخدام الذكاء الاصطناعي في هذه الحالة

لم يقتصر الأمر على الكشف عن الأخطاء، بل امتد إلى انتقاداتٍ حادةٍ لاستخدام الذكاء الاصطناعي في هذه الحالة. وقد حصل موقع "بروبوبليكا" على الكود المُستخدم في نموذج الذكاء الاصطناعي، وقام بمشاركته مع خبراء في مجال الذكاء الاصطناعي والعقود الحكومية. وقد انتقد العديد منهم استخدام هذا النموذج القديم في إدارة عقود حكومية حساسة، ووصفه البعض بأنه "مشكلةٌ عميقة". وأكد الخبراء على ضرورة اختبار خوارزميات الذكاء الاصطناعي بشكلٍ دقيق قبل تطبيقها في إدارة الموارد الحكومية.

اعترافات أحد المبرمجين العاملين في المشروع

أجرى موقع "بروبوبليكا" مقابلةً مع ساهيل لافينجيا، أحد المبرمجين الذين عملوا في إدارة الكفاءة الحكومية لفترةٍ قصيرة لم تتجاوز شهرين. وقد اعترف لافينجيا بوجود أخطاء في الكود الذي قام بكتابته، مُضيفاً أنه لا يُنصح باستخدام هذا الكود. وقد وصف لافينجيا تجربته بأنها "أشبه بحلقة من مسلسل "أوفيس" ، حيثُ يقود ستيف كاريل سيارته إلى البحيرة لأن خرائط جوجل طلبت منه ذلك". وقد أكد لافينجيا أنه أنجز أداة فحص العقود خلال 24 ساعة فقط، واعتمد على الذكاء الاصطناعي لكتابة الكود الذي يفحص أكثر من 90 ألف عقد. يُظهر هذا الاعتراف مدى السرعة والاستعجال في تطوير هذه الأداة، مما أدى إلى نتائج كارثية.

دروس مستفادة ومستقبل استخدام الذكاء الاصطناعي في الإدارة الحكومية

تُشكل هذه الحادثة درساً مُهمًا حول ضرورة التأني والدقة في استخدام تقنيات الذكاء الاصطناعي في الإدارة الحكومية. فلا يُمكن الاعتماد على تقنيات غير مُختبرة أو قديمة في إدارة شؤون حساسة تُؤثر على حياة الناس. يجب أن تُرافق استخدام تقنيات الذكاء الاصطناعي آليات رقابة صارمة وإجراءات اختبار دقيقة لتجنب حدوث أخطاء كارثية مثل التي حدثت في هذه الحالة. كما يجب أن يُولي المسؤولون أهمية كبيرة لتدريب الموظفين على استخدام هذه التقنيات بشكلٍ صحيح وإدراك حدودها وقيودها. إن مستقبل استخدام الذكاء الاصطناعي في الإدارة الحكومية يعتمد على التخطيط الدقيق والتنفيذ المدروس، وإلا فإن النتائج قد تكون كارثية. يُطالب الخبراء بضرورة وضع معايير وإجراءات صارمة لضمان دقة وموثوقية الخوارزميات المستخدمة في إدارة الموارد الحكومية، وذلك لتجنب تكرار مثل هذه الأخطاء في المستقبل. كما يُشددون على أهمية الشفافية والمساءلة في استخدام تقنيات الذكاء الاصطناعي في المجال العام.

مقالات ذات صلة

زر الذهاب إلى الأعلى