تحذير! الذكاء الاصطناعي خطرٌ على البشرية

تحذيرات "عراب الذكاء الاصطناعي": هل نحن على شفا ثورة تكنولوجية خطيرة؟

استقالة جيفري هينتون، أحد أبرز رواد الذكاء الاصطناعي، من عملاق التكنولوجيا جوجل، أثارت موجة من القلق العالمي حول مستقبل هذه التكنولوجيا المتسارعة. فما الذي دفع هذا العالم البارز، الذي يُلقّب بـ"عراب الذكاء الاصطناعي"، إلى التعبير عن ندمه على إسهاماته في هذا المجال؟ وما هي المخاطر التي يحذر منها؟

هينتون والندم على الإنجاز: بين التقدم والقلق

أعلن هينتون، البالغ من العمر 75 عاماً، استقالته من جوجل في تصريح مثير للجدل لصحيفة نيويورك تايمز، معرباً عن ندمه على عمله في مجال الذكاء الاصطناعي. لم تكن الاستقالة مجرد قرار تقاعد روتيني، بل كانت بمثابة جرس إنذار يدق ناقوس الخطر حول السرعة الهائلة لتطور هذه التكنولوجيا ومخاطرها المحتملة على البشرية. يُعرف هينتون بمساهماته الرائدة في مجال الشبكات العصبية والتعلم العميق، وهي تقنيات أساسية تشكل أساس العديد من أنظمة الذكاء الاصطناعي المتقدمة اليوم، مثل ChatGPT.

مخاوف "مخيفة" من روبوتات الدردشة

أبرز هينتون مخاوفه من روبوتات الدردشة المدعومة بالذكاء الاصطناعي، واصفاً بعض مخاطرها بـ"المخيفة للغاية". يرى أن هذه الروبوتات قد تتفوق قريباً على البشر في مستوى المعلومات التي تمتلكها، بل وقد تتجاوز قدراتها العقلية البشرية. وقد أشار إلى أن نماذج لغوية كبيرة مثل GPT-4 تتفوق بالفعل على البشر في كمية المعرفة العامة، وإن لم تكن بمستوى البشر في التفكير المنطقي المعقد. لكن معدل التقدم السريع في هذا المجال يثير قلقه، مما يدفعه للتحذير من ضرورة معالجة هذه المخاطر قبل فوات الأوان.

الشبكات العصبية والتعلم العميق: أساس الثورة

يعتمد تطور الذكاء الاصطناعي بشكل كبير على الشبكات العصبية الاصطناعية، التي تحاكي طريقة عمل الدماغ البشري في معالجة المعلومات والتعلم. تتميز هذه الشبكات بقدرتها على التعلم من البيانات الضخمة، وهو ما يُعرف بالتعلم العميق. يُمكن للشبكات العصبية تحليل البيانات المعقدة، واستخراج الأنماط منها، واتخاذ القرارات بناءً على هذه الأنماط. وقد ساهمت هذه التقنيات في تطوير أنظمة ذكاء اصطناعي قادرة على الترجمة الآلية، والتعرف على الصور والكلام، وتوليد النصوص، وغيرها من المهام المعقدة.

الذكاء الاصطناعي العام (AGI) : التحدي الأكبر

ما يثير قلق هينتون وغيره من الخبراء هو ظهور الذكاء الاصطناعي العام (AGI). هذا النوع من الذكاء الاصطناعي يُمكنه أداء مجموعة واسعة من المهام المختلفة، بعكس أنظمة الذكاء الاصطناعي الضيقة التي تُصمم لأداء مهمة محددة. يُمثل AGI قفزة نوعية هائلة في تطور الذكاء الاصطناعي، وقد يُحدث تغييرات جذرية في مجالات الحياة المختلفة. لكن هذا التطور السريع يُثير مخاوف حول السيطرة على مثل هذه التكنولوجيا القوية، ومنع استخدامها في أغراض ضارة.

المخاطر المحتملة: بين السيناريوهات الأسوأ والكابوس

يُحذر هينتون من إمكانية استخدام الذكاء الاصطناعي من قبل "جهات فاعلة سيئة" لأغراض خبيثة. يُمكن لروبوتات الدردشة المتطورة أن تُستخدم في حروب إعلامية متقدمة، أو في هجمات إلكترونية مدمرة، أو حتى في التحكم في الأسلحة الآلية. ويُشدد على أن الهدف الرئيسي هو منع تطور الذكاء الاصطناعي بشكل يُهدد البشرية. ويُشير إلى سيناريو أسوأ يتمثل في قدرة الذكاء الاصطناعي على تحديد أهداف فرعية خاصة به، مما يُمكن أن يُؤدي إلى نتائج كارثية.

دعوات للتحرك العاجل: بين التوقف المؤقت والتنظيم الدولي

انضم هينتون إلى عدد متزايد من الخبراء الذين يطالبون بالتحرك العاجل للتعامل مع مخاطر الذكاء الاصطناعي. وقد دعت رسالة مفتوحة وقعها عشرات من خبراء الذكاء الاصطناعي، بمن فيهم إيلون ماسك، إلى إيقاف التطورات الأكثر تقدماً في هذا المجال مؤقتاً، من أجل وضع تدابير سلامة صارمة. لكن هينتون يُشير إلى أن التوقف الكامل قد يكون أمرًا صعبًا بسبب المنافسة الدولية الشرسة في هذا المجال.

دور جوجل والمسؤولية العالمية

يُؤكد هينتون أنه لا يريد انتقاد جوجل بشكل خاص، معرباً عن إعجابه بمسؤوليتها في تطوير الذكاء الاصطناعي. لكن هذا لا يُقلل من أهمية التعاون الدولي ووضع إطار تنظيمي صارم لضمان استخدام الذكاء الاصطناعي بشكل مسؤول وأخلاقي. ويُشدد على ضرورة التفكير بعمق في كيفية منع تدهور الأمور والسيطرة على تطور هذا المجال الحساس. وفي بيان لها، أكدت جوجل التزامها بنهج مسؤول في تطوير الذكاء الاصطناعي، مع التعهد بالتعلم من المخاطر الناشئة والتكيّف معها.

خاتمة: بين الأمل والمخاوف

يُمثل الذكاء الاصطناعي فرصة هائلة للتقدم البشري، لكن يُرافقه أيضاً مخاطر لا يُمكن تجاهلها. يُمثل تحذير هينتون جرس إنذار يُحذرنا من ضرورة التعامل مع هذا التطور التكنولوجي بمسؤولية وتخطيط دقيق، وذلك لضمان استخدامه لخدمة البشرية بدلاً من تهديدها. فهل سنستطيع ترويض هذه القوة التكنولوجية الهائلة قبل أن تخرج عن سيطرتنا؟ يبقى السؤال مطروحاً للحكومات والباحثين وشركات التكنولوجيا على حدٍ سواء.

مقالات ذات صلة

زر الذهاب إلى الأعلى