OpenAI: الصين تُسيء استخدام ChatGPT

OpenAI تكشف عن حملاتٍ خبيثةٍ يُشتبه بتورط الصين فيها

تُثير قدرة الذكاء الاصطناعي المتنامية مخاوفَ أمنيةً متزايدة، خاصةً مع ظهور تقاريرٍ تُشير إلى استغلالٍ خبيثٍ لهذه التقنية. وقد أصدرت شركة OpenAI، الرائدة في مجال تطوير نماذج الذكاء الاصطناعي اللغوية الكبيرة مثل ChatGPT، تقريرًا جديدًا يكشف عن حملاتٍ واسعةٍ لإساءة استخدام تقنياتها، مع توجيه أصابع الاتهام نحو الصين. يُسلط هذا التقرير الضوء على التحديات الأمنية المُلحة التي تُفرضها هذه التكنولوجيا المُتقدمة.

OpenAI تُحبط محاولاتٍ خبيثةٍ مصدرها يُرجح أن يكون الصين

كشفت OpenAI، المُدّعمة من عملاق التكنولوجيا مايكروسوفت، عن إحباطها العديد من المحاولات الخبيثة لاستغلال نماذجها، بما في ذلك ChatGPT، في عملياتٍ إلكترونية ضارة. ووفقًا للتقرير الصادر يوم الخميس، فقد تمكنت فرق التحقيق التابعة للشركة من كشف ومنع أنشطةٍ غير مشروعةٍ خلال الأشهر الثلاثة الماضية، بدءًا من 21 فبراير. وعلى الرغم من أن هذه الانتهاكات شملت دولًا مُتعددة، إلا أن OpenAI تُشير إلى أن "عددًا كبيرًا" من هذه الحالات يُرجح مصدره الصين. وقد أشار تقريرٌ لصحيفة وول ستريت جورنال، إلى أن أربعة من أصل عشر حالاتٍ مُسجلة في التقرير الأخير، يُشتبه بأنها انطلقت من الصين.

عمليات تأثير سرية وتلاعب بالرأي العام

أحد الأمثلة التي أوردتها OpenAI، يتضمن استخدام حسابات ChatGPT لإنشاء منشوراتٍ مُضللةٍ على منصات التواصل الاجتماعي كجزءٍ من حملةٍ مُنظمةٍ للتأثير على الرأي العام. وقد تم حظر هذه الحسابات فور اكتشافها. ذكرت الشركة أن أحد المستخدمين قد ذكر في أحد طلباته أنه يعمل لدى "دائرة الترويج للدولة الصينية"، إلا أن OpenAI أوضحت أنها تفتقر إلى أدلةٍ مستقلةٍ تُثبت هذا الادعاء بشكلٍ قاطع. يُبرز هذا المثال مدى سهولة استخدام هذه التقنيات في نشر المعلومات المُضللة وتوجيه الرأي العام بشكلٍ مُخطط.

ردّ الصين على اتهامات OpenAI

من جانبها، نفت الصين هذه الاتهامات. وقد أصدر ليو بينغيو، المتحدث باسم السفارة الصينية في واشنطن، بيانًا يُؤكد فيه التزام الصين بمبدأ تطوير الذكاء الاصطناعي لأغراضٍ سلميةٍ وبناءة. كما شدد البيان على رفض الصين لأي أنشطةٍ غير قانونيةٍ، مثل السرقة والتلاعب والاختراق، بالإضافة إلى جمع المعلومات الشخصية واستخدامها بشكلٍ غير مشروع. وصَفَ المتحدث الفضاء الإلكتروني بأنه "مجالٌ افتراضيٌ للغاية، يصعب تتبعه، وتتعدد فيه الجهات الفاعلة"، داعيًا إلى ضرورة الاعتماد على أدلةٍ دامغةٍ بدلًا من التكهنات والاتهامات.

التحديات الأمنية للذكاء الاصطناعي

يُثير هذا التقرير تساؤلاتٍ مُهمةً حول الاستخدامات الخبيثة للذكاء الاصطناعي، وكيفية مواجهة هذه التحديات. فقد أدى إطلاق ChatGPT في أواخر عام 2022 إلى طفرةٍ في الاستثمار في هذا المجال الواعد، لكن تُبرز هذه الحوادث الجانب المظلم لهذه التكنولوجيا، حيث يُمكن استخدامها في عملياتٍ إجراميةٍ مُتعددة، من عمليات الاحتيال والهجمات الإلكترونية إلى حملات التضليل والتأثير على الرأي العام. تُشدد هذه الحادثة على ضرورة تطوير آلياتٍ وقائيةٍ مُتقدمةٍ للحد من إساءة استخدام تقنيات الذكاء الاصطناعي.

دور OpenAI في مكافحة إساءة الاستخدام

تُطبق OpenAI سياساتٍ صارمةً تحظر استخدام ChatGPT ونماذجها الأخرى في الأنشطة غير المشروعة، مثل الاحتيال والهجمات الإلكترونية. وتُعلق الشركة بانتظام الحسابات التي تُخالف هذه السياسات. لكنّ هذا ليس كافيًا، فالتحدي يكمن في تطوير تقنياتٍ أكثر ذكاءً للكشف عن هذه المحاولات الخبيثة، بالإضافة إلى تعزيز التعاون الدولي لمكافحة هذه الجرائم الإلكترونية المُتطورة.

مستقبل الذكاء الاصطناعي والأمن الإلكتروني

يُمثل هذا التقرير جرس إنذارٍ يدعو إلى مزيد من الحذر واليقظة في التعامل مع تقنيات الذكاء الاصطناعي. فمع تطور هذه التقنيات بسرعةٍ هائلةٍ، يجب أن يتطور أيضًا مُستوى الحماية والأمن الإلكتروني لمواجهة التهديدات المُتزايدة. يُلزم ذلك تعاونًا وثيقًا بين الحكومات، وشركات التكنولوجيا، وباحثين متخصصين، لتطوير حلولٍ مُبتكرةٍ تضمن استخدام الذكاء الاصطناعي بشكلٍ آمنٍ ومسؤولٍ، وتُحد من إمكانية استغلاله في الأنشطة الإجرامية. يُعدّ هذا التحدي مُعقدًا، ويتطلب جهدًا مُشتركًا على الصعيد العالمي.

مقالات ذات صلة

زر الذهاب إلى الأعلى