حين تصغي الآلة للقلب: هل أصبح الذكاء الاصطناعي صديق الإنسان العاطفي؟
أوس ستار الغانمي
2025-11-23 04:07
لم يعد الذكاء الاصطناعي مجرد منظومة رقمية مبرمجة على الأوامر والاستجابات؛ بل تحوّل إلى كيان قادر على الإصغاء والتفاعل وحتى «التعاطف». هذا التطور الهائل في علاقة الإنسان بالآلة يعيد تعريف حدود التكنولوجيا وحدود العاطفة معًا. فبينما كان الهدف في السابق تسريع الحسابات وتبسيط المهام، بات الطموح اليوم هو فهم المشاعر الإنسانية والاستجابة لها بذكاء عاطفي حقيقي.
لكن هذا الانفتاح التكنولوجي يطرح تساؤلات عميقة: هل يمكن للآلة أن تشعر؟ وهل بات الإنسان نفسه يبحث عن الرفقة في عالم رقمي أكثر دفئًا من الواقع؟
توصل باحثون بقيادة علماء من جامعة جنوب كاليفورنيا الأميركية إلى أن الذكاء الاصطناعي يُشعر الناس بأن هناك أحد يستمع إليهم بصدق أكثر من البشر، وهو تطور يمكن أن يكون مفيدا في مستقبل العلاج النفسي.
وللحصول على هذه النتائج التي نشرت في دورية "بي إن إيه إس" الصادرة من المؤسسة الوطنية للعلوم، تلقى فريق من المشاركين في التجارب نوعين من الرسائل كرد فعل على مشكلات قاموا بسردها سابقا، النوع الأول كتبه إنسان والثاني كتبه الذكاء الاصطناعي.
أكثر تعاطفا
وبعد ذلك خضع المشاركون لاختبار بشأن أي الرسائل جعلتهم يشعرون بأن صوتهم مسموع وأن الذي أرسل الرسالة متعاطف معهم ويهتم لمشكلاتهم، وهنا جاءت النتائج لتقول إن المشاركين كانوا أميل لاعتبار أن رسائل الذكاء الاصطناعي أكثر تعاطفا.
وإلى جانب ذلك تمكن الذكاء الاصطناعي من رفع درجات الأمل والتخفيف من درجات الضيق لدى المشاركين في التجارب، والأهم من ذلك أنه كان أكثر انضباطا من البشر في تقديم الدعم العاطفي، فلم يبدأ على الفور بتقديم النصائح.
وغالبا ما نميل نحن البشر لتقديم حلول عملية لمشكلات الآخرين على الفور، ونتصور أن المطلوب منا في حالات كهذه هو فقط إيجاد حلول، لكنّ أكثر ما يحتاجه الشخص في هذه الحالة هو الشعور بأن أحدهم يستمع إليه.
وبحسب بيان رسمي صادر من جامعة جنوب كاليفورنيا، فإن هذه النتائج تفتح الباب لدخول الذكاء الاصطناعي إلى نطاق تقديم الدعم العاطفي والاجتماعي، خاصة في عالم يسود فيه وباء الوحدة، وينعزل الناس نفسيا عن بعضهم يوما بعد يوم.
والواقع أن العديد من المحاولات البحثية اهتمت بالسؤال عن إمكانية تقديم الذكاء الاصطناعي للدعم النفسي. فعلى سبيل المثال، وجدت دراسة نشرت في دورية "نيتشر" المرموقة، أن روبوتات الدردشة المختصة بالصحة النفسية خفّضت بشكل واضح من أعراض الاكتئاب والضيق لدى المرضى الذين شاركوا في أكثر من 35 تجربة أجرتها الدراسة.
تحديات مستقبلية
لكنْ رغم ذلك، لا تزال هناك تحديات تواجه تدخل الذكاء الاصطناعي لتقديم الدعم النفسي على مستوى طبي (في حالة الاضطرابات النفسية)، أو على مستوى عام (في المدارس مثلا للطلاب أو للموظفين في الشركات).
وأول تلك التحديات ترصده دراسة جامعة جنوب كاليفورنيا السالف ذكرها، عندما وجدت أن المشاركين أبلغوا بأنهم لا يشعرون بأي تحسن عندما علموا أن الرسالة جاءت من الذكاء الاصطناعي، وهو ما يعني أن البشر في حاجة للتعاطف من بشر يشبهونهم.
أما الأمر الآخر الذي يقلق العلماء يتعلق بأخطاء الذكاء الاصطناعي حينما يفهم سياق الحدث بشكل خاطئ، وتلك الأخطاء يمكن أن تُولّد توجيها غير صحيح من البرمجية إلى الإنسان الذي يستخدمها.
ونذكر هنا حالة رجل بلجيكي في مارس/آذار 2023، حينما استخدم أحد برمجيات المحادثة التي تعتمد على الذكاء الاصطناعي لحل مشكلة تغيّر المناخ، فاقترحت عليه بعد نقاش طويل التضحية بنفسه لأجل القضية، وهو ما فعله الرجل.
أضف إلى ذلك أنه لا تزال هناك مشكلة كبرى تتعلق بالخصوصية، فاختراق بيانات تتعلق بأعمق تحديات الإنسان النفسية تظل مشكلة هائلة، خاصة في عصر رقمي أصبح الأمان فيه أمرا عزيزا. نقلا ما نشره موقع (الجزيرة نت).
أصبحت العلاقة بين البشر والذكاء الاصطناعي أكثر تعقيداً، ما دفع العلماء إلى دراسة وتحليل طبيعة هذه العلاقة بالاعتماد على نظرية التعلق، فهل أصبح البشر متعلقون عاطفياً بالذكاء الاصطناعي؟
تدرس نظرية التعلّق التي وضعها العالم البريطاني جون بولبي العلاقات والروابط بين البشر، وخاصة العلاقات طويلة الأمد بين الشريكين وبين الآباء والأبناء، وتشرح النظرية لماذا يستطيع بعض الناس تكوين روابط عميقة وآمنة، بينما يجد آخرون صعوبة في الثقة أو الخوف من التقرّب من الآخرين.
ولكن الاعتماد الكبير على أنظمة وتقنيات الذكاء الاصطناعي اليوم يطرح سؤالاً جديداً، وهو هل يمكن أن يتعلّق البشر بالذكاء الاصطناعي؟ ما دفع بفريق من الباحثين من جامعة واسيدا اليابانية إلى إجراء دراستين تجريبيتين ودراسة رسمية بالاستناد إلى نظرية التعلق لدراسة العلاقات بين الإنسان والذكاء الاصطناعي نُشرت نتائجها في مجلة Current Psychology.
حاجة عاطفية لأنظمة الذكاء الاصطناعي
أشار الباحثون ومن ضمنهم الباحث المشارك فان يانغ والأستاذ أتسوشي أوشيو من كلية الآداب والفنون والعلوم إلى أن التفاعلات بين الإنسان والذكاء الاصطناعي تتشابه مع العلاقات بين البشر من حيث قلق التعلّق وتجنب التعلّق. ويقول يانغ: "في السنوات الأخيرة، ازدادت قوة وحكمة الذكاء الاصطناعي المُولّد، مثل تشات جي بي تي ChatGPT، حيث لم يقتصر دوره على تقديم الدعم المعلوماتي فحسب، بل شمل أيضاً الشعور بالأمان".
والشعور بالأمان بحسب نظرية التعلّق عنصر أساسي ومهم لبناء علاقات آمنة مع الآخرين، ولأن البشر أصبحوا يستخدمون الذكاء الاصطناعي للدعم العاطفي والرفقة إلى جانب حل المشكلات والتعلّم يرى يانغ أن هذه العلاقة تستحق الاهتمام.
ولهذا طوّر الباحثون مقياساً جديداً للدراسة، أُطلق عليه اسم "مقياس التجارب في العلاقات بين الإنسان والذكاء الاصطناعي " (EHARS)، يقيس الميول المرتبطة بالتعلق بالذكاء الاصطناعي.
وبناءً عليه وجد الباحثون أن بعض الأفراد يلتمسون الدعم والتوجيه العاطفي من الذكاء الاصطناعي، على غرار تفاعلهم مع البشر.
فلجأ حوالي 75 بالمئة من المشاركين بالدراسة إلى الذكاء الاصطناعي طلباً للنصيحة، بينما اعتبره حوالي 39 بالمئة من المشاركين كياناً موجوداً في حياتهم وموثوقاً به.
وفرّقت الدراسة بين بُعدين للتعلق البشري بالذكاء الاصطناعي، هما القلق والتجنب، أي أن بعض الأشخاص لديهم قلق كبير من التعلّق بالذكاء الاصطناعي، أي أنهم يخافون من التعلّق بالذكاء الاصطناعي ويستخدمونه في الغالب من أجل الدعم النفسي والعاطفي والدردشة، وبالتالي يشعرون بالقلق من عدم تلقي ردود مُرضية ومطمئنة من الذكاء الاصطناعي.
والنمط الآخر هو تجنّب التعلّق، وهنا يتجنّب بعض الأشخاص التعلّق بالذكاء الاصطناعي، ما يجعلهم غير مرتاحين من التعامل العاطفي أو القريب مع الذكاء الاصطناعي، ويستخدمونه للحصول على معلومات فقط.
يفضّل هؤلاء الأشخاص إبقاء مسافة عاطفية كبيرة بينهم وبين الذكاء الاصطناعي وعدم الاعتماد عليه بأمور شخصية أو عاطفية.
تطوير ذكاء اصطناعي ذكي عاطفياً
نتائج هذه الدراسة لا تعني أن البشر يكوّنون حالياً تعلّقاً عاطفياً بالذكاء الاصطناعي، وإنما تبيّن أن الأطر النفسية المُستخدمة في العلاقات الإنسانية قد تنطبق أيضاً على التفاعلات بين الإنسان والذكاء الاصطناعي.
ويمكن أن تساهم هذه النتائج في تطوير أنظمة وأدوات الذكاء الاصطناعي التي تستخدم في دعم الصحة النفسية بطريقة أخلاقية تساهم فعلاً في دعم المرضى. كأن يتم تصميم روبوتات الدردشة الذكية المستخدمة في تدخلات علاج الوحدة أو تطبيقات العلاج النفسي لتلائم احتياجات كافة المستخدمين، فمثلاً تُبدي أنظمة الذكاء الاصطناعي أو روبوتات الدردشة الذكية استجابات وردود فعل أكثر تعاطفاً واحتواءً للأشخاص الذين يعانون من قلق التعلّق الشديد، أو تحافظ على مسافة عاطفية كافية مع الأشخاص الذين يميلون لتجنب التعلق.
وتشير نتائج الدراسة أيضاً إلى ضرورة الشفافية في أنظمة الذكاء الاصطناعي التي تُحاكي العلاقات العاطفية، مثل تطبيقات الذكاء الاصطناعي الرومانسية أو روبوتات مُقدمي الرعاية، لمنع الإفراط في الاعتماد العاطفي أو التلاعب.
كما يمكن للمطورين أو علماء النفس استخدام نموذج EHARS الذي ابتكره الباحثون لتقييم كيفية تفاعل الأشخاص مع الذكاء الاصطناعي عاطفياً، وتعديل استراتيجية تفاعله وفقاً لذلك.
وأخيراً تتمثل أهمية هذه الدراسة في العلاقة المتنامية بين البشر والذكاء الاصطناعي بالارتباط الوثيق بيننا وبين أنظمة وتقنيات الذكاء الاصطناعي، ليس للحصول على معلومات فقط، بل من أجل الحصول على دعم عاطفي ونفسي منها، فقد لا يخلو هاتف أو حاسوب أي شخص من برنامج ذكاء اصطناعي يعتمد عليه في البحث والحصول على معلومات أو نصائح في الحياة اليومية.
وبهذا الصدد يقول الباحث المشارك فان يانغ والأستاذ أتسوشي أوشيو من كلية الآداب والفنون والعلوم: "يُسلط بحثنا الضوء على الديناميكيات النفسية الكامنة وراء هذه التفاعلات، ويُقدم أدوات لتقييم الميول العاطفية تجاه الذكاء الاصطناعي. وأخيراً، يُعزز فهمًا أفضل لكيفية تفاعل البشر مع التكنولوجيا على المستوى المجتمعي، مما يُساعد في توجيه السياسات وممارسات التصميم التي تُعطي الأولوية للرفاهية النفسية". وفق ما نشره (موقع DW).
ما هي مشاعركم حيال استخدامات الذكاء الاصطناعي؟
-ربّما أنتم مستعجلون وتتوقون لاستخدامه في العمل والحياة.
-ربّما تجدونه مخيفاً بعض الشيء وتتساءلون ما إذا كانت تهديداته تفوق مكاسبه.
-ربّما تشعرون أنّ الأمر برمّته مثير للاهتمام ولكنّكم لستُم واثقين بعد بماذا تفكّرون.
طرائق الاستكشاف
ما هو القاسم المشترك بين هذه الاستجابات الثلاث الشائعة؟ إنها جميعها تعتمد على العاطفة. لهذا السبب؛ عندما يتعلّق الأمر بالذكاء الاصطناعي، يملك أصحاب الذكاء العاطفي المرتفع امتيازاً مقارنة بالآخرين.
لعلّنا سننظر إلى عصرنا الحالي كبداية الانتشار الواسع للذكاء الصناعي بالطريقة نفسها التي نظرنا بها إلى أواخر التسعينات كبداية الانتشار الواسع للإنترنت. إذن، الأذكياء عاطفياً يقتربون من الذكاء الاصطناعي بفضول وحذر: تجربة، ومشاركة، وإيجاد طرائق للاستكشاف.
ما هي الطريقة الأسهل للتعبير عن هذا النوع من الروح الفضولية، أي روح حب الاطلاع؟ أعتقد أنّها التعود على استكشاف روبوتات ومولّدات الذكاء الاصطناعي المتوافرة بكثرة وبالمجّان وبكلفة قليلة كـ«تشات جي بي تي»، و«بينغ»، و«بارد».
لعلّكم بدأتم حتّى باستخدام «تشات جي بي تي» أو غيره من وسائط الذكاء الاصطناعي لإنتاج الرموز، وصيغ جداول البيانات، وغيرها من المخرجات البسيطة، وإنه لأمر مهمّ ومثير للإعجاب.
تحسين المهارات
ولكن يمكنكم أيضاً استخدام الذكاء الاصطناعي لتحسين المهارات النّاعمة الكامنة في قلب الذكاء العاطفي. في هذه الحالة، نقدّم لكم في ما يلي: 17 طريقة قليلة المخاطر وعالية المكاسب بدأ الأشخاص الذين يتمتّعون بذكاء عاطفي مرتفع في استخدامها للحاق بموجة الذكاء الاصطناعي.
بعض هذه الأمور بسيط وتدريجي، وبعضها قد يغيّر حياتكم:
1. تقليل مخاطر التراسل النصيّ من خلال الاستفسار عن ما إذا كانت الكلمات التي ستستخدمونها لها معنى غير الذي تقصدونه في لغات أخرى.
2. تحسين مستوى الكتابة عبر طلب نقدٍ عام لأسلوبكم في كتابة مستندٍ أو وثيقة معيّنة.
3. تعزيز الاحترافية باستخدام الذكاء الاصطناعي للتدقيق اللغوي. فبدل قبول مادّة من إنتاج الذكاء الاصطناعي، اطلبوا منه تحضير لائحة بتغييرات مقترحة تساعدكم على المصادقة عليها بحكمكم الخاص.
4. تعزيز الطابع المرح والجاذبية بطلب إيراد دعابة وإدراجها في خطاب.
5. الاستفسار عن أفضل طرائق افتتاح الاجتماعات أو البدء بالمحادثات.
6. الاستفسار عن مصطلحات ذات صلة لاكتشاف كلمات أدقّ تدعم رسالتكم.
7. تحسين العلاقات من خلال الاستفسار عن بدائل لغوية أفضل لقول «آسف».
8. تعلّم قول «لا» بتأثير أكبر من خلال الاستفسار عن طرائق صارمة ومهذّبة في الوقت نفسه لرفض الدعوات والطلبات.
القيادة والأسلوب
9. تحسين القيادة بشرح حاجة الموظّف إلى التحسّن، وحثّ الذكاء الاصطناعي للتوصية بوسائل بنّاءة لمشاركة النقد من دون استدعاء ردود فعل سلبية.
10. ابتكار عروض ترسخ في الذاكرة بحثّ الذكاء الاصطناعي على تحويل خطاب نثري إلى شعر حتّى تتمكّنوا من إلقائه بأسلوب جميل وعاطفي. (نموذج عن السؤال: «إليك خطاباً عليّ أن ألقيه. لا تغيّر كلمات أو جملاً أساسية، ولكن أعِد كتابته بأسلوب شعري مناسبٍ للإلقاء»).
11. تعزيز الثقة والأداء من خلال شرح خطّة استراتيجية، وتوجيه الوسيط لنقدها ونبش فجواتها.
12. التطوّر إلى مستمعٍ نشط عبر شرح وضعٍ معيّن وطلب اقتراح أسئلة يميل الجمهور البشري إلى طرحها.
13. طلب توصيف سردي لخلافٍ أو مواجهة، بالإضافة إلى أفكار لحلّها بشكل ودي.
14. طلب توصيف لشخص قد تودون شراء هدية له، بالإضافة إلى أفكار عن الهدايا.
15. استخدام روبوتات المحادثة المدعومة بالذكاء الاصطناعي لتعلّم مهارات جديدة من خلال طلب حصصٍ دراسية عن مهارة معيّنة ترغبون في اكتسابها.
16. الاستفسار عن أجهزة مساعدة للذاكرة لمساعدتكم في تذكّر الأمور المهمّة.
17. طلب «مسودّة مسار لرحلة» إلى مكان ترغبون في السفر إليه، مع تقدير للميزانية، والأذواق، وتواريخ السفر.
وأيضاً، يمكننا إضافة تنمية الانضباط في التفاعل مع الذكاء الاصطناعي باستخدام لغة مقصودة. على سبيل المثال، يمكنكم استخدام كلمات كـ«حث» أو «استفسار» بدل الأخرى الشائعة كـ«سؤال» لتذكّروا أنفسكم دائماً بأنّ الذكاء الاصطناعي صناعياً إلى هذه الدرجة.
أعتقد أنّ هذا الأمر سيصبح أكثر أهمية مع توسّع الدور الذي سيلعبه الذكاء الاصطناعي في حياتنا... باختصار، إنّ استخدام الذكاء الاصطناعي بذكاء سيجعل الحياة أسهل بكثير. وفق ما نشرته (صحيفة الشرق الأوسط).
مليون مستخدم يعبرون عن ميول انتحارية
أعلنت شركة OpenAI أن أكثر من مليون مستخدم أسبوعياً يجرون محادثات مع شات جي بي تي تتضمن مؤشرات صريحة على نوايا أو خطط انتحارية، ما يسلط الضوء على التحديات النفسية التي يواجهها عدد كبير من مستخدمي الذكاء الاصطناعي حول العالم.
وقالت الشركة في بيان صدر الاثنين إن نحو 0.15% من المستخدمين النشطين أسبوعياً يتحدثون مع شات جي بي تي حول قضايا تتعلق بالانتحار.
ومع تجاوز عدد مستخدمي المنصة 800 مليون شخص أسبوعياً، فإن النسبة تعني أن أكثر من مليون إنسان يعبّرون عن أفكار انتحارية أثناء استخدامهم الأداة، بحسب تقرير نشره موقع "تك كرانش" واطلعت عليه "العربية Business".
وأوضحت "OpenAI" أن نسبة مشابهة من المستخدمين تُظهر ارتباطاً عاطفياً مفرطاً بالروبوت، بينما تظهر لدى مئات الآلاف منهم علامات على اضطرابات نفسية مثل الهوس أو الذهان.
ورغم أن الشركة وصفت هذه الحالات بأنها "نادرة للغاية"، فإنها أقرت بأنها تمثل تحدياً حقيقياً يتطلب معالجة دقيقة.
وجاء هذا الكشف ضمن إعلان أوسع حول جهود الشركة لتحسين كيفية استجابة النماذج اللغوية لمستخدميها من ذوي المشكلات النفسية.
وأشارت "OpenAI" إلى أنها تعاونت مع أكثر من 170 خبيراً في الصحة النفسية لتطوير النسخة الأخيرة من شات جي بي تي، مؤكدة أن أداء النموذج الجديد أصبح "أكثر ملاءمة واتساقاً" مقارنة بالإصدارات السابقة.
وتأتي هذه الخطوة بعد سلسلة من التقارير التي حذرت من تأثيرات سلبية محتملة للذكاء الاصطناعي على الأشخاص الذين يعانون من اضطرابات نفسية، إذ أظهرت بعض الدراسات أن الدردشات المطوّلة مع روبوتات الذكاء الاصطناعي قد تعزز المعتقدات الخطيرة أو تدفع المستخدمين إلى سلوكيات مهووسة.
وتواجه "OpenAI" حالياً قضية قضائية رفعها والدان فقدا ابنهما البالغ 16 عاماً بعد أن أجرى محادثات انتحارية مع شات جي بي تي، قبل وفاته، بينما حذّرت السلطات في ولايتي كاليفورنيا وديلاوير الشركة من عدم كفاية إجراءاتها لحماية المستخدمين القُصّر.
قال الرئيس التنفيذي سام ألتمان إن الشركة نجحت في التقليل من المشكلات النفسية الخطيرة في شات جي بي تي، دون تقديم تفاصيل واضحة.
وتشير البيانات الجديدة إلى تحسن في أداء النموذج الأحدث GPT-5، إذ أصبح قادراً على تقديم استجابات مناسبة في 91% من الحالات المتعلقة بمحادثات الانتحار، مقارنة بنسبة 77% في النسخة السابقة.
كما أوضحت "OpenAI" أنها بدأت بإضافة اختبارات تقييم جديدة ضمن منظومة السلامة الخاصة بها، لقياس مؤشرات الاعتماد العاطفي والمواقف المتعلقة بالأزمات النفسية غير الانتحارية، إلى جانب تطوير نظام لتقدير أعمار المستخدمين تلقائياً وفرض حماية إضافية للأطفال.
ورغم هذه الجهود، ما تزال الشركة تواجه تساؤلات حول فعالية إجراءاتها، خصوصاً أن بعض النماذج القديمة مثل GPT-4o لا تزال متاحة لملايين المشتركين، ما يعني أن التحديات النفسية المرتبطة باستخدام الذكاء الاصطناعي لن تختفي قريباً.
الخلاصة:
ربما لم يعد السؤال اليوم هو ما إذا كان الذكاء الاصطناعي سيتفوّق على الإنسان في التفكير، بل ما إذا كان سيقترب منه في الإحساس. فحين يصبح الحوار مع الآلة مصدرَ راحةٍ نفسية، وحين يشعر الملايين أن ثمة من يصغي إليهم حتى لو كان كيانًا رقميًا فإننا نقف أمام فصل جديد من التفاعل الإنساني.
ومع كل هذا التقدّم، تبقى المسؤولية الأخلاقية والوعي الإنساني حجر الأساس لضمان أن تظل التقنية في خدمة المشاعر لا بديلاً عنها. فالعاطفة مهما تبرمجت... تبقى في جوهرها إنسانية.