الصحة العقلية للإنسان من اهتمامات AI الذكاء الاصطناعي فلقد أحدث خدمات مجانية في مختلف المجالات ومنها الصحة وذلك باستخدام روبوت محادثة يعمل بالذكاء الاصطناعي للمساعدة في الاستجابة للأشخاص الذين يسعون للحصول على الدعم النفسي.

روبوت محادثة يقدم دعمًا نفسيًا

لكن التجربة أثارت جدلاً أخلاقياً حول الأمر كما أن الإجراء افتقر للشفافية.

الصحة العقلية للإنسان فهنالك منظمة غير ربحية للصحة العقلية تعرضت لانتقادات شديدة لاستخدامها روبوت محادثة يعمل بالذكاء الاصطناعي كـ “تجربة” لتقديم الدعم للأشخاص الذين يسعون للحصول على المشورة في المجال وتجربتها على أشخاص حقيقيين .

ولفت روب موريس، مؤسس خدمة الصحة العقلية المجانية كوكو Koko، في سلسلة تغريدات على تويتر أن الشركة كيف أدارت الأمر في استخدام روبوت محادثة (chatbot) للمساعدة في توفير دعم الصحة العقلية لنحو 4000 شخص.

فهنالك روبوتات الدردشة تم استخدامها في الرد على الأشخاص مدعومة بواسطة برنامج الذكاء الاصطناعي المثير للجدل GPT-3، وهو ذكاء اصطناعي متاح للجمهور صممته شركة OpenAI ومقرها سان فرانسيسكو.

وأكمل موريس في حديثه عن الشركة : “قدمنا دعماً للصحة العقلية لحوالي 4000 شخص – باستخدام GPT-3″،

مواصلًا حديثه عن الشركة،بأنه تم تصنيف الرسائل المكونة من قبل الذكاء الاصطناعي (والتي يشرف عليها البشر) بدرجة أعلى بكثير من تلك التي كتبها البشر بأنفسهم، وأضاف: “انخفضت أوقات الاستجابة بنسبة 50٪ لتصل إلى أقل من دقيقة

مع كل ذلك على الجميع الانتباه بأن الرسائل التي تلقوها أُنتجت بواسطة آلة، فإن الأمر لم ينجح حيث أن محاكاة التعاطف تبدو غريبة وفارغة “.

وأوضح موريس، فهو عالم بيانات سابق في إحدى الشركات الكبرى، إلى أن الذكاء الاصطناعي قد استخدم في أكثر من 30 ألف رسالة، وفق ما ذكر موقع newscientist.

وفي فيديو توضيحي نشره ضمن إحدى التغريدات، فظهر بأنه يتحدث مع روبوت المحادثة Koko bot على إحدى منصات التواصل الاجتماعي، يطلب من البرنامج الرد على منشور سلبي كتبه شخص ما عن نفسه.

أمثلة على محاكاة التعاطف بواسطة الذكاء الاصطناعي

شيّد موريس من تلك العملية من أجل مساعدة الجميع قائلًا: “نحاول أن نسهل من عملية مساعدة الأشخاص الآخرين، وباستخدام GPT-3 يكون الأمر أكثر كفاءة وفعالية كمقدم مساعدة … إنها مشاركة قصيرة للغاية”.

و فالعملية ذاتها التي أجراها موريس لقى رد واستجابة من تلقاء نفسه، وقال موريس: “لقد كتب في ثوان معدودة ردًا رائعًا ومفصلاً حقًا”.

وأكد موريس بأن النتيجة أكثر من رائعة بالنسبة لبرنامج معد جيدا بالذكاء الاصطناعي لأن الرسائل التي ألفها الذكاء الاصطناعي تم تصنيفها على أنها أعلى قيمة بكثير من تلك التي كتبها البشر،

وأن معدلات الاستجابة تحسنت بنسبة 50 في المائة بمساعدة الذكاء الاصطناعي. ومع ذلك، لم يُخفِ موريس أنه عندما علم الناس أن الرسائل كُتبت باستخدام ذكاء اصطناعي، شعروا بالانزعاج من “محاكاة التعاطف البشري”.

الصحة العقلية للإنسان كيف يُدار koko discord لخدمته؟

يهتم ذلك البرنامج koko discord في دعم أشخاص يعانون من أزمات في الصحة العقلية ويسعون للحصول على المشورة.

فتلك العملية أصبحت صعبة في حديث يجريه بشر امام آلة، ففي اختبار أجراه موقع Motherboard، يسألك برنامج chatbot في بحثك عن رغبتك عن مساعدة في “المواعدة، أو الصداقات، أو العمل، أو المدرسة، أو الأسرة، أو اضطرابات الأكل، أو التمييز، أو غير ذلك”.

بعدها يريد معرفة مشكلتك بدقة ويطلب منك بتدوينها بدقة، مع وضع علامة على “أكثر أفكارك سلبية” بشأن المشكلة، ثم يتم إرسالها للمنصة والبرنامج ذاته سيوجه المعلومات لشخص حقيقي على الجانب الآخر دون أن يعلم من يطلب المساعدة ان من يقود الحوار خلال كل ذلك هو برنامج ذكاء اصطناعي، بحسب ما ذكر موقع فايس.

العقل السليم في الجسم السليم هل تعرف ماهي العادات التي تحسن صحتك العقلية فيمكنك الانتقال إلى الرابط التالي :لصحتك النفسية والعقلية.. 16 عادة يومية مذهلة

“لم لا نندمج مع البوت “!

أثير هذا البرنامج جدلا واسعًا، ومما عليه قام موريس بتوضيح الحقيقة في تغريدات، أكد فيها أنه “تم إخبار المستخدمين في الواقع أن الرسائل التي تلقوها تمت مشاركتها معهم من قبل البشر والآلات منذ البداية.

قالت الرسالة التي تلقوها “تمت كتابتها بالتعاون مع koko bot”، ويمكنهم أن يقرروا قراءتها أم لا.. يتواصل المستخدمون في Koko مع الروبوت الخاص بنا طوال الوقت وقد تم تعريفهم بهذا المفهوم أثناء الإعداد”.

واستطرد موريس: “يبدو أن الناس أساءوا تفسير هذا السطر: “عندما أدركوا أن الرسائل كانت روبوتًا قالوا إن هذا لم يذكر بوضوح.

لكننا نؤكد أنه تم إخبار المستخدمين في الواقع أن الرسائل تمت كتابتها بشكل مشترك من قبل البشر والآلات منذ البداية”.

نقاش أخلاقي

تلك التجربة لم تمر بمرور سلام فقد شارك علماء أخلاقيات الذكاء الاصطناعي وخبراء ومستخدمين، وهناك عدد من الأمور التي لم يتم استيعابها بعد بحجة الحفاظ على المفاهيم الاخلاقية المتداخلة. فقد انتقد البعض بشدة استخدام تقنية غير معلن عنها أو مصرح باستخدامها في هذا المجال الحساس دون إخبار الأشخاص الذين خضعوا لاستخدامها معهم.

كما انتقد آخرون فكرة التعامل مع آلة لحالات مرضية بشر سواء نفسي او عاطفي وما تضمنه ذلك من محاكاة مصطنعة للمشاعر البشرية بشكل وصفه البعض “بالكاذب”.

وشاركت إليزابيث ماركيز في الرأي، وهي باحثة أولى في مركز ماث ووركس MathWorks، طالبة دكتوراه بجامعة ميشيغان، قائلة: “لم يرد خلال تلك المراحل من تواصل الشخص الذي يبحث عن الرعاية مع المؤسسة، أي ذكر لعملية الموافقة أو مراجعة أخلاقية الأمر، ولا التلميح أن من يتعامل معهم هو آلة،

خاصة وأن هناك أشخاص لا يحبون روبوت الدردشة، وخصوصاً فيما يتعلق برعاية صحتهم العقلية.. كان الأمر جديدًا ومدهشًا”.

الصحة العقلية للإنسان فهنالك تحذيرات هامة يجب توجيهها للجميع

بدورها انتقدت إميلي إم بندر، أستاذة اللغويات في جامعة واشنطن ، استخدام الآلة بثقة عمياء في تشخيص الحالات موضحة إن الثقة في الذكاء الاصطناعي لعلاج مرضى الصحة العقلية سيلحق الضرر بشكل كبير ،

بقولها، “فهذه آلات ليس لديها أي تعاطف وهي نفسها لا تفهم طبيعة اللغة التي تنتج بها الإجابات، ولا تفهم الوضع الذي يعيش فيه الناس. لكن النص الذي تنتجه يبدو معقولًا ولذا فمن المرجح أن يهتم به الناس”.

وواصلت أن “استخدام شيء من هذا القبيل في المواقف الحساسة هو مخاطرة غير مأمونة العواقب، ما يطرح سؤالاً رئيسياً هو: من المسؤول إذا قدم الذكاء الاصطناعي اقتراحات ضارة للأشخاص؟ وما حدود المسؤولية والمحاسبة من جانب الشركة إذا حدث ذلك؟”.

مقارنة بين الردود البشرية وردود الذكاء الاصطناعي

ودعم الخبراء في أخلاقيات الذكاء الاصطناعي بشدة على هذا الرأي أنه إذا تم استخدام مثل هذه التطبيقات لأغراض نفسية، فإن هناك عشرات الأطراف التي يجب أن تكون على إطلاع دائم ومستمر بتطور هذا النوع من المحادثات والردود.

كما لابد أن يتابع أشخاص ذوي خبرات خاصة طبيعة الردود التي ينتجها الذكاء الاصطناعي قبل إرسالها إلى من يطلب الدعم والمساعدة النفسية