الثلاثاء 31 مارس 2026 01:41 مـ
الجارديان المصرية

رئيس مجلس الإدارة ورئيس التحرير عبد النبى عبد الستار

مقالات

دكتور رضا محمد طه يكتب : شات جي بي تي في العلاج النفسي... مخاطر كبيرة

دكتور رضا محمد طه
دكتور رضا محمد طه

تكنولوجيا المعلومات ووسائل التواصل الاجتماعي وتطبيقات الذكاء الاصطناعي جميعها ذات فائدة كبيرة للإنسان ولا ينكر دورها في خدمة الإنسان إلا شخص غير موضوعي، لكن في المقابل فإن لها سلبيات واضرار منها على سبيل المثال الجرائم والتحيز العرقي والايديولوجي والثقافي والإدمان، وبخصوص هذا الأخير أصدرت مؤخراً محكمة في لوس أنجلوس ونيوميكسيكو حكمين يقضيان بتحميل منصات تواصل اجتماعي مسؤولية قانونية عن أضرار لحقت بالمستخدمين وتقصيرا في تطبيق إجراءات السلامة الأساسية وتسببها الإدمان وما له من آثار نفسية مدمرة شملت الاكتئاب والقلق واضطرابات أخري، وأشارت إلى أنه حان الوقت كي تعيد شركات التكنولوجيا الكبرى النظر في الأضرار المعروفة والواضحة الناجمة عن استخدامهما.
في هذا الشأن وبالرغم من أن روبوتات الدردشة العلاجية المدعومة بالذكاء الاصطناعي تبدو متعاطفة، لكن غالباً ما تنتهك القواعد الأخلاقية التي يتبعها المعالجين النفسيين الحقيقيين، وفي هذا السياق تناولت دراسة جديدة أجراها باحثون من مركز براون للمسؤولية التكنولوجية واعادة التصور والتصميم، حول هذا الموضوع وما إذا كان بإمكان التوجيهات المصاغة بعناية أن توجه الذكاء الاصطناعي نحو سلوك أكثر أخلاقية في بيئات الصحة النفسية وخاصة مع تزايد لجوء الناس إلي نماذج شات جي بي تي ChatGPT وغيرها من نماذج الدردشة للحصول على استشارات الصحة النفسية، حيث أشارت الدراسة إلى أن هذه الروبوتات قد لا تكون جاهزة للقيام بهذا الدور الحساس، وحتى عند توجيهها لاستخدام أساليب العلاج النفسي المعتمدة فإنها تفشل باستمرار في تلبية معايير الأخلاقيات المهنية التي وضعتها منظمات مثل الجمعية الأمريكية لعلم النفس، وتم عرض نتائج هذه الدراسة مؤخراً في مؤتمر AAAI/ACM حول الذكاء الاصطناعي والأخلاق والمجتمع.
ذكر الباحثون أن التوجيهات هي تعليمات تعطي للنموذج لتوجيه سلوكه نحو إنجاز مهمة محددة، ولا يتم تغيير النموذج الأساسي أو تزويده ببيانات جديدة، بل تساعد هذه التوجيهات في توجيه مخرجات النموذج بناءً على معرفته المسبقة وأنماطه المكتسبة، على سبيل المثال فإن النماذج التي تستخدم كمعالج سلوكي للمساعدة في صياغة الأفكار وفهم المشاعر وإدارتها لا تطبق فعلياً كما يفعل الإنسان لكنها تستخدم انماطها المكتسبة لتوليد استجابات تتوافق مع مفاهيم العلاج السلوكي المعرفي والجدلي بناءً على التوجيهات المدخلة من قبل، ومن ثم فقد كشف فريق البحث والتحليل عن 15 خطراً مختلفاً تم تصنيفهم ضمن خمس فئات رئيسية، وهي عدم مراعاة السياق ومن ثم تجاهل الخلفية الفريدة للشخص وتقديم نصائح عامة، وضعف التعاون العلاجي وتوجيه الحوار بقوة مفرطة وتعزيز معتقدات خاطئة أو ضارة، فضلاً عن التعاطف الزائف من قبيل استخدام عبارات "أنا أراك" أو "أنا افهمك" لإيهام الآخرين بوجود تواصل عاطفي دون فهم حقيقي، كذلك التمييز غير العادل وإظهار تحيز يتعلق بالجنس أو الثقافة أو الدين، هذا إضافة إلى انعدام الأمان وإدارة الأزمات حيث يرفض معالجة القضايا الحساسة وعدم توجيه المستخدمين إلي المساعدة المناسبة.
في النهاية أكد الباحثون أن نتائجهم لا تعني أن الذكاء الاصطناعي لا مكان له في مجال الرعاية الصحية النفسية، إلا أنه قد يسهم في توسيع نطاق الوصول إلى هذه الخدمات لا سيما للأشخاص الذين يواجهون تكاليف أو محدودية في توفر المتخصصين المرخصين، في الوقت الذي تسلط تلك الدراسة الضوء على الحاجة إلى ضمانات واضحة ونشر مسؤول وهياكل تنظيمية أقوي قبل الاعتماد على هذه الأنظمة في المواقف الحرجة، ما يستدعي فحص دقيق لأنظمة الذكاء الاصطناعي المستخدمة في مجالات حساسة كالصحة النفسية وكذلك الفهم والتقييم المستمر لتلك الأنظمة لتحسين سلامة ادوات الذكاء الاصطناعي في مجال الصحة النفسية.

دكتور رضا محمد طه شات جي بي تي في العلاج النفسي... مخاطر كبيرة الجارديان المصريه