موجة الذكاء الاصطناعي تصل إلى محركات البحث.. فهل ستثق في النتائج؟
دورية Nature
2023-02-21 07:05
بقلم: كريس ستوكل-ووكر
مَضَت بضعة أشهُر على ظهور روبوت الدردشة «تشات جي بي تي» ChatGPT، الذي أذهل العالَم بقدرته الهائلة على كتابة موضوعات الإنشاء وإجابة الأسئلة كما لو كان إنسانًا. وها قد وصل مَدُّ الذكاء الاصطناعي إلى محركات البحث على شبكة الإنترنت.
في الأسبوع الماضي، أعلنت ثلاثة من أكبر محركات البحث العالمية – هي «جوجل» و«بِنج» و«بايدو» - أنها تعتزم إدماج روبوت الدردشة «تشات جي بي تي» ChatGPT، أو تقنية مشابهة، في منتجاتها المتخصصة في البحث على شبكة الإنترنت، بحيث تتيح للمستخدم أن يحصل لأسئلته على إجابات مباشرة، أو ينخرط في محادثة مع المحرك البحثي، بدلًا من قائمة الروابط التي تظهر للمستخدم عندما يُدخل في خانة البحث كلمةً أو سؤالًا. فكيف لهذا التطوُّر أن يؤثر في علاقة المستخدم بمحرِّك البحثي؟ وهل ثمة آثار سلبية يمكن أن تترتب على هذا النمط من التفاعل بين الإنسان والآلة؟
يعتمد محرك البحث «بِنج» Bing، التابع لشركة «مايكروسوفت»، على ذات التقنية المعمول بها في روبوت الدردشة «تشات جي بي تي»، الذي طوَّرَته شركة «أوبن إيه آي» Open AI، ومقرُّها سان فرانسيسكو بولاية كاليفورنيا الأمريكية. غير أن محركات البحث الثلاثة تعتمد على ما يُعرف بالنماذج اللغوية الكبيرة (LLMs)، التي تُنتج جُمَلًا سليمة التركيب والمنطق عن طريق إعادة توليد الأنماط الإحصائية التي تنطوي عليها النصوص في قواعد البيانات الكبيرة. كانت شركة «جوجل» قد أعلنت في السادس من فبراير الجاري عن محرِّكها البحثي القائم على الذكاء الاصطناعي، ويحمل الاسم «بارْد» Bard، إلا أنه لا يزال في طور الاختبار. أما المحرك البحثي التابع لشركة «مايكروسوفت» فإنه متاحٌ الآن على نطاق واسع، ولو أن بعض خصائصه تبقى محجوبة بانتظار أن يُزاح عنها الستار. وأما روبوت الدردشة التابع لشركة «بايدو» Baidu الصينية، واسمه «إرني بوت» ERNIE Bot، فمن المُنتظَر أن يُطرح في مارس المقبل.
في وقتٍ سابق، وقبل أن تُعلن هذه الشركات الثلاث الكبرى عن محركاتها البحثية الذكية، كانت بضع شركاتٍ أصغرَ حجمًا قد طرحت محركاتٍ بحثيةً تقوم على الذكاء الاصطناعي. أحد هذه المحركات البحثية، ويُدعَى «بِربليكسيتي» Perplexity، يعتمد منهجية النماذج اللغوية الكبيرة، ويقدِّم أجوبة على الأسئلة بلغة إنجليزية تحدُّثية. يقول أرافيند سرينيفاس، عالم الحاسوب المقيم في سان فرانسيسكو – والذي شارك في تأسيس شركة «بِربليكسيتي» في أغسطس الماضي – يقول: "لقد تطوَّرت محركات البحث إلى هذا الحد الذي تستطيع معه أن تُكَلِّم المحرك البحثي، بل وتنخرط معه في صنوف الحديث، كما يتحدث الصديق إلى صديقه".
هل ستثق في نتائج البحث «الذكي»؟
هذا الطابع الشخصي للبحث، المُغرِقُ في شخصيته قياسًا إلى ما كان عليه الحال في عمليات البحث التقليدية، ربما يُفضي إلى تغيير انطباعات المستخدمين عن نتائج البحث. ترى ألكسندرا أورمان، عالمة الاجتماع الحاسوبي بجامعة زيوريخ في سويسرا، أن ثقة المستخدم في الإجابات ربما تزيد أضعافًا عندما تأتي من روبوت دردشة قادر على أن ينخرط معه في محادثة، عوضًا عن أن تُصَفُّ أمامه في قائمة روابط تفتقر إلى حميمية التجربة الشخصية.
وقد أظهرت دراسة أجراها في عام 2022 فريقٌ من الباحثين بجامعة فلوريدا، الكائنة في مدينة جينزفيل الأمريكية، أنه كلما شعر مستخدِم روبوتات الدردشة، على غرار الروبوت الذي طوَّرته شركة «أمازون» Amazon أو شركة «بِست باي» Best Buy، أن التعامل مع الروبوت يُشبه التعامل مع البشر، زاد ذلك من ثقة المستخدِم في الشركة المطوِّرة لذلك الروبوت.
قد يكون هذا تطوُّرًا مفيدًا، بالنظر إلى أنه يجعل عملية البحث أسرع وأسهل؛ إلا أن هذه الزيادة في منسوب الثقة ربما تُشكِّل مسألةً إشكالية، على اعتبار أن روبوتات الدردشة القائمة على الذكاء الاصطناعي ليست بمنأًى عن ارتكاب الأخطاء. وقد رأينا في أثناء العرض التجريبي لـ«بارْد»، روبوت الدردشة التابع لشركة «جوجل»، كيف أنه وقع في خطأ فاضح لدى سؤاله عن «تلسكوب جيمس ويب الفضائي»، إذ أجاب – بكل ثقة – إجابةً أبعدَ ما تكون عن الصواب. كما لوحظ في «تشات جي بي تي» أنه يميل إلى وضع أجوبة خيالية أو مختلَقة للأسئلة التي لا يعرف لها إجابة، فيما يُعرف بين العاملين في المجال بالـ«هلوسة».
معقِّبًا على سقطة «بارد»، ذكر المتحدث الإعلامي باسم شركة «جوجل» أنها "تؤكد على أهمية إخضاع هذه التقنيات لاختبارات مكثَّفة، وهو ما شرعت الشركة في تنفيذه هذا الأسبوع بالاعتماد على برنامجٍ للاختبار موثوقٍ فيه". لكن هناك من يرى أن مثل هذه الأخطاء، على فرض اكتشافها، ربما تقوِّض ثقة المستخدمين في البحث القائم على الدردشة، بدلًا من زيادتها. و"الانطباعات الأولى يمكن أن تترك أثرًا عميقًا"، على حد قول سريدار راماسوامي، عالم الحاسوب المقيم في مدينة ماونتن فيو بولاية كاليفورنيا الأمريكية، والرئيس التنفيذي للشركة التي دشَّنَتْ في يناير الماضي محرك بحثٍ يعمل بالنماذج اللغوية الكبيرة تحت اسم «نيفا» Neeva. يُذكَر أن شركة «جوجل» فقدت 100 مليار دولار من قيمتها على أثر تلك السقطة، التي بثَّت القلق في نفوس المستثمرين، فهُرِعوا إلى بيع ما بحوزتهم من أسهُم الشركة.
غياب الشفافية
تُضاف إلى مشكلة الافتقار إلى الدقة مشكلة أخرى، هي مشكلة الغياب النسبي للشفافية. ففي حالة محركات البحث التقليدية، نجد أن عملية البحث عادةً ما تنتهي بإحضار قائمةٍ من المصادر (أو الروابط) تاركةً للمستخدم حرية اختيار المصدر الذي يحظى بثقته. أما في حالة روبوتات الدردشة، فلا نعرف – إلا فيما ندر – المصدر الذي استقت منه النماذج اللغوية الكبيرة بياناتها: هل هي الموسوعة البريطانية أم جريدة صفراء؟
تقول أورمان: "هناك غياب تام للشفافية فيما يتعلق بآلية عمل [أدوات البحث القائمة على الذكاء الاصطناعي]؛ وهو الأمر الذي قد تترتب عليه عواقب جسيمة إذا ما اختلَّت النماذج اللغوية، أو نشرَتْ معلومات مضلِّلة، أو دخلَتْ في نوبة «هلوسة»".
ترى أورمان أنه إذا تعددت أخطاء روبوتات البحث، فلن تزيد عندئذٍ ثقة المستخدم في هذه الروبوتات، على ما تملك من قدرةٍ تحدُّثية، وإنما سيفقد المستخدم – في أكبر الظن – ثقته في محرِّك البحث بوصفه وسيطًا لعرض الحقيقة بحَيدةٍ وإنصاف.
وضعت أورمان دراسةً، لم تُنشَر بعد، انتهت منها إلى أن ثقة المستخدم في محركات البحث مرتفعة في الوقت الحالي. رصدت الباحثة انطباعات المستخدمين عن الخصائص التي تستعين بها «جوجل» حاليًا لتعزيز تجربة البحث. من هذه الخصائص، خاصية «المقتطفات المميَّزة» featured snippets، التي تعرض مقطعًا (أو مقتطَفًا) من الصفحة يظهر أعلى الرابط، ويُعتبَر أهمَّ ما في الصفحة وأكثرَه اتصالًا بما يبحث عنه المستخدم. وخاصيةٌ أخرى، هي خاصية «بطاقات المعلومات» knowledge panels، التي تعرض معلوماتٍ موجزة، يُصدِّر بها محرك «جوجل» نتائجه عند البحث عن اسم شخص، مثلًا، أو مؤسسة. يرى نحو 80% من الأشخاص الذين شَمِلَتْهم دراسة أورمان أن هذه الخصائص دقيقة، ويعتقد نحو 70% منهم أنها موضوعية.
يبدو أن الأمر – كما وصفته جيادا بيستيلي، الباحثة الرئيسة في شركة «هاجِنج فيس» Hugging Face، التي تتخذ باريس مقرًا لها، وتنادي بالاستخدام الحصيف لتقنيات الذكاء الاصطناعي – هو أن أدوات البحث المدعومة بروبوتات الدردشة تطمس الفارق بين الإنسان والآلة. والقلق يساور الباحثةَ إزاء هذه السرعة التي تندفع بها الشركات اندفاعًا نحو تبنِّي منجزات الذكاء الاصطناعي، فتقول: "دائمًا ما تُلقَى هذه التقنيات الجديدة في وجوهنا بغير ضابطٍ أو رابط، وفي غياب الإطار التعليمي الكفيل بتوضيح كيفية استخدامها".