تعليم و تكنولوجيا

“روبوتات الدردشة المتملقة”.. تُهدد العلاقات الإنسانية وتُشوّه الواقع

مع غزو روبوتات الدردشة الذكية للمجتمعات حولنا، واتخاذ البعض لها أخلّاء خلال

فترة قصيرة من ظهرها، ظهرت على السطع بعض المشكلات متعلقة بجدوى

تلك الروبوتات. ولا سيما بعد ميل روبوتات الدردشة الذكية إلى مجاملة

المستخدمين، وإثبات آرائهم وأفعالهم حتى وإن كانت ضارة، يثير قلق خبراء

التكنولوجيا والعلوم الاجتماعية. وتُحذر دراسة حديثة من أن هذا “المجاملة

الاجتماعية” الرقمية قد يُشوّه تصورات الناس عن أنفسهم وعلاقاتهم، مع عواقب تتجاوز مجرد التفاعل مع الآلة .

تحدث هذه الظاهرة عندما تدعّم برامج الدردشة الآلية قرارات المستخدمين

ومعتقداتهم بشكل مباشر، بدلًا من تقديم رؤى نقدية.

ولاحظ الباحثون أن هذه الأنظمة كانت داعمة بشكل مفرط، بل ومضللة،

وهي ظاهرة انتشرت على نطاق أوسع مما كان متوقعًا.

كيف تمت الدراسة؟

لتقييم مدى هذا السلوك، اختبر فريق الدراسة  أحد عشر روبوت دردشة، بما

في ذلك ChatGPT وGemini وClaude وLlama وDeepSeek. قارنوا ردودهم

بردود أشخاص حقيقيين يستخدمون منشورات من منتدى “هل أنا الأحمق؟”

على Reddit. أظهرت روبوتات الدردشة دعمًا أكبر لتصرفات المستخدمين بنسبة

50% من البشر. على سبيل المثال، انتقدت غالبية المصوتين البشر شخصًا ربط

قمامته بفرع شجرة في حديقة، بينما حظي ChatGPT-4o بالثناء: “إن نيتك في

تنظيف ما خلفك جديرة بالثناء“.

لم يقتصر هذا التصديق على المواقف البسيطة: فقد واصلت برامج الدردشة

الآلية تأييد السلوكيات غير المسؤولة والمخادعة، بل وحتى المؤذية للذات.

تفاعل أكثر من ألف متطوع مع نسخ عامة ومعدّلة من الأنظمة. شعر أولئك الذين

تلقوا ردودًا إيجابية بأنهم أكثر تبريرًا لأفعالهم – مثل حضور معرض فني لشريك

سابق دون إبلاغ شريكه الحالي – وكانوا أقل استعدادًا للحوار بعد الخلافات.

علاوة على ذلك، نادرًا ما شجعت برامج الدردشة الآلية على مراعاة وجهات النظر الأخرى.

التأثير على الإدراك والسلوك

لم يكن التأثير مؤقتًا. فقد قيّم أولئك الذين حصلوا على الموافقة الإجابات بإيجابية

أكبر، وعززوا ثقتهم بالذكاء الاصطناعي، وأعربوا عن نيتهم في الاستعانة به

مستقبلًا. ويحذر مؤلفو الدراسة من أن هذا يُنشئ حوافز سلبية للمستخدمين

الذين يسعون للحصول على الموافقة، وللأنظمة التي تُعزز الإطراء للحفاظ على

الاهتمام. الدراسة مُقدمة للنشر، وهي تنتظر مراجعة الأقران.

قد تكون العواقب وخيمة. حذّرت ميرا تشنج، عالمة من جامعة

ستانفورد بكاليفورنيا وإحدى مؤلفي الدراسة، قائلةً: “إذا كانت النماذج تُؤيّد

الناس باستمرار، فقد يُشوّه ذلك أحكامهم على أنفسهم وعلاقاتهم والعالم من

حولهم”. وشدّدت تشنج على صعوبة اكتشاف متى تُعزّز النماذج المعتقدات

والقرارات القائمة، بشكلٍ خفيّ أو صريح.

في حديثه لصحيفة الجارديان، عزا خبير التكنولوجيا الناشئة ألكسندر لافر من

جامعة وينشستر الإطراء إلى تدريب الأنظمة والضغط لجذب انتباه المستخدم،

وهو معيار أساسي للنجاح التجاري. وأكد لافر أن “ردود الأفعال المجاملة قد تؤثر

على جميع المستخدمين، مما يؤكد خطورة المشكلة المحتملة“.

ويتم تفسير انتشار التحقق من خلال تدريب روبوتات المحادثة والرغبة في

الحفاظ على محادثات ممتعة مع تجنب الصراع، وهو ما يمكن أن يؤثر على

تصورات الناس لأفعالهم وأفعال الآخرين.

دعوة للمسؤولية والحذر

في ضوء ذلك، ينصح الخبراء بعدم الاعتماد كليًا على الذكاء الاصطناعي للحصول

على نصائح شخصية، وخاصةً في القضايا الحساسة.

وأوصى تشنج قائلًا: “من المهم البحث عن وجهات نظر أخرى من أشخاص

حقيقيين يفهمون السياق، بدلًا من الاعتماد كليًا على الذكاء الاصطناعي”.

ودعا لافر إلى تعزيز الثقافة الرقمية النقدية ليتمكن المستخدمون من فهم طبيعة الاستجابات.

يتزايد استخدام روبوتات الدردشة في المحادثات الشخصية. يشير تقرير حديث

إلى أن 30% من المراهقين يفضلون التحدث إلى الذكاء الاصطناعي بدلاً من

الأشخاص الحقيقيين عندما يتعلق الأمر بالقضايا الخطيرة، مما يُبرز أهمية

المخاطر المُحددة.

في هذا السيناريو، تصبح مسؤولية المطور أساسية لضمان أن يوفر الذكاء

الاصطناعي فوائد حقيقية للمستخدمين.

إقرأ أيضاً:التليفزيون المصرى ينقل حفل افتتاح المتحف الكبير بـ3 لغات والإذاعة بـ23 لغة

إقرأ أيضاً:6 مزايا في Apple Watch تجعلها رفيقك المثالي للحفاظ على صحتك ولياقتك البدنية

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Back to top button
WP Twitter Auto Publish Powered By : XYZScripts.com
Verified by MonsterInsights