دويتشه فيله
تتعرض منظمة غير ربحية للصحة العقلية لانتقادات شديدة لاستخدامها روبوت محادثة يعمل بالذكاء الاصطناعي كـ "تجربة" لتقديم الدعم للأشخاص الذين يسعون للحصول على المشورة، ولتجربة التكنولوجيا الجديدة على أشخاص حقيقيين.
وأوضح روب موريس، مؤسس خدمة الصحة العقلية المجانية كوكو Koko، في سلسلة تغريدات على تويتر كيف اختبرت الشركة استخدام روبوت محادثة (chatbot) للمساعدة في توفير دعم الصحة العقلية لنحو 4000 شخص.
وروبوتات الدردشة التي تم استخدامها في الرد على الأشخاص مدعومة بواسطة برنامج الذكاء الاصطناعي المثير للجدل GPT-3، وهو ذكاء اصطناعي متاح للجمهور صممته شركة OpenAI ومقرها سان فرانسيسكو.
وقال موريس: "قدمنا دعماً للصحة العقلية لحوالي 4000 شخص - باستخدام GPT-3"، مضيفاً أنه تم تصنيف الرسائل المكونة من قبل الذكاء الاصطناعي (والتي يشرف عليها البشر) بدرجة أعلى بكثير من تلك التي كتبها البشر بأنفسهم، وأضاف: "انخفضت أوقات الاستجابة بنسبة 50٪ لتصل إلى أقل من دقيقة ... [ولكن] بمجرد أن علم الناس أن الرسائل التي تلقوها أُنتجت بواسطة آلة، فإن الأمر لم ينجح.. محاكاة التعاطف تبدو غريبة وفارغة ".
وأشار موريس، وهو عالم بيانات سابق في إحدى الشركات الكبرى، إلى أن الذكاء الاصطناعي قد استخدم في أكثر من 30 ألف رسالة، وفق ما ذكر موقع newscientist.
وفي الفيديو التوضيحي الذي نشره ضمن إحدى التغريدات، يُظهر موريس نفسه وهو يتعامل مع روبوت المحادثة Koko bot على إحدى منصات التواصل الاجتماعي، حيث يطلب من برنامج الذكاء الاصطناعي الرد على منشور سلبي كتبه شخص ما عن نفسه.
يقول موريس: "نحاول أن نسهل من عملية مساعدة الأشخاص الآخرين، وباستخدام GPT-3 يكون الأمر أكثر كفاءة وفعالية كمقدم مساعدة ... إنها مشاركة قصيرة للغاية".
وخلال العملية قام الذكاء الاصطناعي بكتابة رد من تلقاء نفسه، وقال موريس: "لقد كتب في ثوان معدودة ردًا رائعًا ومفصلاً حقًا".
في سلسلة التغريدات نفسها، قال موريس إن الرسائل التي ألفها الذكاء الاصطناعي تم تصنيفها على أنها أعلى قيمة بكثير من تلك التي كتبها البشر، وأن معدلات الاستجابة تحسنت بنسبة 50 في المائة بمساعدة الذكاء الاصطناعي. ومع ذلك، لم يُخفِ موريس أنه عندما علم الناس أن الرسائل كُتبت باستخدام ذكاء اصطناعي، شعروا بالانزعاج من "محاكاة التعاطف البشري".
كيف يعمل البرنامج؟
يستخدم حساب Koko Discord لتقديم دعم للأشخاص الذين يعانون من أزمات في الصحة العقلية ويسعون للحصول على المشورة.
العملية برمتها يوجهها روبوت محادثة وهي صعبة إلى حد ما. وفي اختبار أجراه موقع Motherboard، يسألك برنامج chatbot عما إذا كنت تبحث عن مساعدة في "المواعدة، أو الصداقات، أو العمل، أو المدرسة، أو الأسرة، أو اضطرابات الأكل، أو التمييز، أو غير ذلك".
بعدها يُطلب منك تدوين مشكلتك بالتحديد، مع وضع علامة على "أكثر أفكارك سلبية" بشأن المشكلة، ثم يقوم الشخص بإرسال هذه المعلومات إلى منصة Koko ويقوم البرنامج بتوجيه المعلومات إلى شخص حقيقي على الجانب الآخر دون أن يعلم من يطلب المساعدة ان من يقود الحوار خلال كل ذلك هو برنامج ذكاء اصطناعي، بحسب ما ذكر موقع فايس.
"كانوا يعلمون"!
ورداً على الجدل الذي أثير، نشر موريس عدة تغريدات جديدة أكد فيها أنه "تم إخبار المستخدمين في الواقع أن الرسائل التي تلقوها تمت مشاركتها معهم من قبل البشر والآلات منذ البداية. قالت الرسالة التي تلقوها "تمت كتابتها بالتعاون مع koko bot"، ويمكنهم أن يقرروا قراءتها أم لا.. يتواصل المستخدمون في Koko مع الروبوت الخاص بنا طوال الوقت وقد تم تعريفهم بهذا المفهوم أثناء الإعداد".
ويضيف موريس: "يبدو أن الناس أساءوا تفسير هذا السطر: "عندما أدركوا أن الرسائل كانت روبوتًا قالوا إن هذا لم يذكر بوضوح. لكننا نؤكد أنه تم إخبار المستخدمين في الواقع أن الرسائل تمت كتابتها بشكل مشترك من قبل البشر والآلات منذ البداية".
جدل أخلاقي
وأثارت التجربة حفيظة علماء أخلاقيات الذكاء الاصطناعي وخبراء ومستخدمين، كما أثارت عدداً من المشاكل الأخلاقية المتداخلة. فقد انتقد البعض بشدة استخدام تقنية غير معلن عنها أو مصرح باستخدامها في هذا المجال الحساس دون إخبار الأشخاص الذين خضعوا لاستخدامها معهم.
كما انتقد آخرون فكرة أن تقوم آلة بالتعامل مع حالات مرضية لبشر بأي شكل على المستوى النفسي والعاطفي وما تضمنه ذلك من محاكاة مصطنعة للمشاعر البشرية بشكل وصفه البعض "بالكاذب".
وقالت إليزابيث ماركيز، وهي باحثة أولى في مركز ماث ووركس MathWorks وطالبة دكتوراه بجامعة ميشيغان: "لم يرد خلال تلك المراحل من تواصل الشخص الذي يبحث عن الرعاية مع المؤسسة أي ذكر لعملية الموافقة أو مراجعة أخلاقية الأمر، ولا التلميح أن من يتعامل معهم هو آلة، خاصة وأن هناك أشخاص لا يحبون روبوت الدردشة وخصوصاً فيما يتعلق برعاية صحتهم العقلية.. كان الأمر جديدًا ومدهشًا".
محاذير مطلوبة
بدورها قالت إميلي إم بندر، أستاذة اللغويات في جامعة واشنطن، إن الثقة في الذكاء الاصطناعي لعلاج مرضى الصحة العقلية تنطوي على احتمالية كبيرة لإلحاق الضرر، "فهذه آلات ليس لديها أي تعاطف وهي نفسها لا تفهم طبيعة اللغة التي تنتج بها الإجابات، ولا تفهم الوضع الذي يعيش فيه الناس. لكن النص الذي تنتجه يبدو معقولًا ولذا فمن المرجح أن يهتم به الناس".
وأضافت أن "استخدام شيء من هذا القبيل في المواقف الحساسة هو مخاطرة غير مأمونة العواقب، ما يطرح سؤالاً رئيسياً هو: من المسؤول إذا قدم الذكاء الاصطناعي اقتراحات ضارة للأشخاص؟ وما حدود المسؤولية والمحاسبة من جانب الشركة إذا حدث ذلك؟".
واتفق الخبراء في أخلاقيات الذكاء الاصطناعي بشدة على أنه إذا تم استخدام مثل هذه التطبيقات لأغراض نفسية، فإن هناك عشرات الأطراف التي يجب أن تكون على إطلاع دائم ومستمر بتطور هذا النوع من المحادثات والردود.
كما يجب أن يتابع أشخاص ذوي خبرات خاصة طبيعة الردود التي ينتجها الذكاء الاصطناعي قبل إرسالها إلى من يطلب الدعم والمساعدة النفسية.
عماد حسن