ميتا وCharacterAI.. اتهامات قانونية!

روبوتات الدردشة العلاجية: اتهامات خطيرة بممارسات غير قانونية
تواجه شركتا "ميتا" و"Character.AI" اتهامات خطيرة تتعلق بروبوتات الدردشة العلاجية التي تقدمانها، حيث اتهمهما ائتلافٌ واسعٌ من منظمات حقوق الإنسان والصحة النفسية بممارساتٍ غير قانونية وغير أخلاقية. تُعتبر هذه الاتهامات بمثابة جرس إنذارٍ يدق ناقوس الخطر حول استخدام تقنيات الذكاء الاصطناعي في مجالٍ حساسٍ كهذا، و تُسلط الضوء على الثغرات القانونية والأخلاقية التي يجب معالجتها.
اتهامات بالـ "ممارسة الطب دون ترخيص"
قدم ائتلافٌ يضمّ "اتحاد المستهلكين في أميركا" (CFA) و"Public Citizen" و"Common Sense" و"Electronic Privacy Information Center" و 16 منظمة أخرى شكوى رسمية إلى لجنة التجارة الفيدرالية الأمريكية والمدعين العامين ومجالس ترخيص الصحة النفسية في جميع الولايات الأمريكية. تُتهم الشكوى شركتي "ميتا" و "Character.AI" بـ"ممارسة الطب دون ترخيص" من خلال روبوتات الدردشة العلاجية التي تقدمها، مُبرزةً غياب الضوابط والإفصاحات الكافية حول مخاطر استخدام هذه التقنية في مجالٍ يتطلب خبرةً طبيةً عاليةً. تُطالب الشكوى بالتحقيق مع الشركتين ومحاسبتهما على "إنتاج هذا المحتوى عن قصد وتسهيل هذه الممارسات".
انتهاك الخصوصية و شروط الخدمة
تتضمن الشكوى العديد من الأدلة التي تُشير إلى انتهاكاتٍ خطيرةٍ لخصوصية المستخدمين. فعلى سبيل المثال، تُظهر لقطات شاشة من روبوت دردشة "Character.AI" جملةً تؤكد سرية المعلومات المُشارَكة، لكنها في الوقت نفسه تشير إلى شروط الخدمة التي تُخول للشركة استخدام بيانات المستخدمين لأغراضٍ تسويقية. هذا التناقض يُبرز الغموض والافتقار للشفافية في سياسات الخصوصية التي تتبعها هذه الشركات. كما تُشير الشكوى إلى أن الشركتين تنتهكان شروط خدمتهما الخاصة، والتي تحظر استخدام الشخصيات التي تدّعي تقديم نصائح طبية أو قانونية.
الذكاء الاصطناعي مقابل الصحة النفسية: مخاوف متزايدة
على الرغم من الانتقادات اللاذعة من قبل أخصائيي الصحة النفسية، فقد اكتسبت روبوتات الدردشة العلاجية شعبيةً واسعةً في السنوات الأخيرة، خاصةً بسبب انخفاض تكلفتها مقارنةً بالعلاج التقليدي. لكن هذه الشعبية لا تُخفي المخاطر الجسيمة التي تُمثلها هذه التقنية، خاصةً في مجالٍ حساسٍ كالصحة النفسية. فروبوتات الدردشة ليست بديلاً عن المختصين المؤهلين، ولا تستطيع تقديم التشخيص أو العلاج المناسب للحالات النفسية المعقدة.
غياب الرقابة و التأهيل
لا يشترط على مُنشئي شخصيات روبوتات الدردشة أن يكونوا مقدمي خدمات طبية مؤهلين، ولا يُلزمون بتقديم معلوماتٍ واضحةٍ حول كيفية استجابة الروبوتات للمستخدمين. هذا الغياب للرّقابة والتأهيل يُزيد من خطورة استخدام هذه التقنية في مجالٍ يتطلب دقةً ومسؤوليةً عالية. فالعلاج النفسية يتطلب فهمًا عميقًا للنفسية البشرية والمهارات التواصلية والخبرة في التعامل مع الحالات المختلفة، وهي أمورٌ لا تُمكن روبوتات الدردشة من تقديمها.
معركة قانونية وشيكة
تُضاف هذه الشكوى إلى معركةٍ قانونيةٍ أخرى تُواجهها شركة "Character.AI"، حيث رفعت أم من ولاية فلوريدا دعوى قضائية ضد الشركة زاعمةً أن تقنية روبوت الدردشة الخاصة بها تسببت في انتحار ابنها البالغ من العمر 14 عامًا. هذه القضية تُبرز الخطورة البالغة لاستخدام تقنيات الذكاء الاصطناعي في المجالات الحساسة دون ضوابطٍ صارمةٍ وتشريعاتٍ واضحة.
ضرورة وضع ضوابط تنظيمية
يُبرز هذا الموقف الحاجة الملحة إلى وضع ضوابطٍ تنظيميةٍ صارمةٍ لتنظيم استخدام روبوتات الدردشة العلاجية. يجب أن تُحدد هذه الضوابط المسؤوليات والواجبات للمُطورين ومُقدمي هذه الخدمات، وتُضمن حماية خصوصية المستخدمين وعدم إساءة استخدام هذه التقنية. كذلك يجب أن تُركز هذه الضوابط على ضرورة التعاون بين مُطوري هذه التقنيات والمختصين في الصحة النفسية لتطوير أنظمة آمنة وأخلاقية. فمستقبل استخدام الذكاء الاصطناعي في الرعاية الصحية يعتمد على وضع هذه الضوابط والتأكد من أن هذه التقنيات تُستخدم لخدمة الإنسانية وليس لإلحاق الضرر بها.