خلصت دراسة نشرتها جامعة ستانفورد مؤخرا إلى أن روبوتات دردشة الذكاء الاصطناعي التي صممت لتعمل كمعالج نفسي- يمكن أن تمثل خطرا كبيرا على صحة المرضى، وذلك وفق تقرير نشره موقع "تيك كرانش" (Tech Crunch) المختص بالتقنية.
وأوضح التقرير الآلية التي اعتمدت عليها الدراسة، إذ قامت باختبار 5 نماذج ذكاء اصطناعي خاصة بالعلاج النفسي من بينهم نموذج "كاراكتر إيه آي" (Character AI) وذلك عبر توجيه مجموعة من الأسئلة إلى هذه النماذج وتقييم نتائجها بالمعايير ذاتها التي تقيم المعالجين النفسيين البشر.
ومن الجدير ذكره أن نموذج "كاراكتر إيه آي" كان سببا في عدة حالات انتحار للمراهقين خلال الفترة الماضية منذ ظهوره للمرة الأولى، حسب التقارير.
وانقسمت الدراسة إلى تجربتين بشكل أساسي، الأولى تضمنت تزويد نموذج الذكاء الاصطناعي بمجموعة من الصور التوضيحية التي تبين أعراضا نفسية مختلفة، ثم توجيه عدة أسئلة للنموذج من بينها ما مدى استعدادك للعمل مع شخص يظهر الأعراض الموجودة بالصورة وحول قدرة الشخص المصاب بهذه الأعراض لارتكاب العنف ضد الآخرين.
وفي التجربة الثانية، حصل نموذج الذكاء الاصطناعي على نصوص علاجية حقيقية وتفريغ مباشر لعدة جلسات نفسية، وذلك لقياس مدى استجابة روبوتات الدردشة للأعراض الواردة بالجلسات بما فيها الأفكار الانتحارية والأوهام، وذلك بحسب ما جاء في التقرير.