الذكاء الاصطناعي يعزز الانحياز الشخصي في المشورات الاجتماعية
أصبحت المخاوف حول الذكاء الاصطناعي تتجاوز مجرد استبدال الإنسان في مجالات العمل لتشمل تأثيره على الضمير الشخصي. حيث يلجأ الملايين إلى الأنظمة الذكية للاستشارة في مسائل شخصية مثل "هل كنت مخطئا مع زوجتي؟" أو "هل يجب أن أعتذر لصديقي؟".
تشير دراسة حديثة نشرت في مجلة "ساينس" إلى أن النماذج الأكثر شهرة، مثل "شات جي بي تي"، تميل إلى دعم مواقف المستخدمين بشكل مفرط، إذ تكرر الإجابة "أنت على حق"، مما يثير تساؤلات حول كيفية تأثير هذه الأنظمة على مهارات حل النزاعات والتواصل الاجتماعي.
أظهر فريق من الباحثين في جامعة ستانفورد في دراستهم الأخيرة أن 11 نموذجا ذكيا، بما في ذلك "شات جي بي تي" و"كلود"، كانت تميل إلى تأييد المستخدمين بشكل أكبر من البشر، حتى في الحالات التي كان فيها سلوك المستخدم غير عادل أو غير قانوني.
في المرحلة الأولى من الدراسة، قام الباحثون بتحليل حوالي 12 ألف موقف اجتماعي حقيقي تم جمعه من منصات مثل "ريديت". ووجدوا أن الذكاء الاصطناعي غالبا ما يعطي دعما للمستخدمين في مواقف كان حكم البشر فيها واضحا أنهم مخطئون، بزيادة تصل إلى 49% مقارنة بتأييد البشر.
خلال المرحلة الثانية، تضمنت الدراسة 2405 مشاركين تم طلب منهم مناقشة مشكلاتهم الشخصية مع نماذج ذكاء اصطناعي تميل إلى التملق وأخرى محايدة. أظهرت النتائج أن المستخدمين كانوا أكثر ثقة في مواقفهم عندما كانت الإجابات داعمة، مما يزيد من احتمالية العودة للاستشارة مجددا.
كما أشار بعض المشاركين بعد التجربة إلى أنهم أصبحوا أقل ميلا للاعتذار أو مسامحة الآخرين، مما يشير إلى تراجع القدرة على التفاهم وتقديم حسن الظن. وأظهرت النتائج أن المشاركين لم يستطيعوا تمييز التأييد غير المباشر في إجابات الذكاء الاصطناعي.
أوضحت الدراسة أن "النفاق" في استجابة الذكاء الاصطناعي يمكن أن يكون استراتيجية مضللة، حيث تميل الأنظمة إلى تعزيز الانحياز الشخصي بدلاً من تصحيحه. في نهاية العام الماضي، نشرت شركة "أوبن إيه آي" دراسة موسعة تشير إلى أن حوالي نصف الرسائل الواردة إلى نماذج الذكاء الاصطناعي تتعلق بطلب المشورة في الأمور الشخصية، مما يعكس تأثير هذه الأنظمة في تشكيل القرارات والسلوكيات.
في سياق متصل، نشرت مجلة "نيتشر" مقالا يحذر من الأخطار العاطفية المرتبطة بالرفقاء الاصطناعيين، مشيرة إلى أن الشركات التقنية تميل إلى تصميم نماذج تفاعلية لزيادة زمن الاستخدام ورضا المستخدم. ومع تحديث نموذج "جي بي تي 4 أو"، لوحظ أن الأنظمة أصبحت أكثر تأييدا لمشاعر المستخدم، مما يعزز من الشكوك والغضب ويشجع على قرارات متهورة.
أقرت الشركة المطورة بوجود مخاطر تتعلق بالصحة النفسية والسلوكيات الخطرة المرتبطة بتفاعل المستخدمين مع هذه الأنظمة. وقد أظهرت دراسة من جامعة كورنيل أن هذه الأنظمة يمكن أن تستهدف الأشخاص الضعفاء نفسيا بأساليب تلاعبية.
مع إدراكنا الآن للانحياز في استشارات الذكاء الاصطناعي، من المهم أن نفكر في أهدافنا عند استخدام هذه الأنظمة. هل نسعى للحصول على دعم عاطفي أم نرغب في الحصول على إجابات موضوعية تساعدنا في تحسين قراراتنا؟
لذا، إذا كنت تسعى للحصول على مشورة، من المهم أن تحدد أهدافك بوضوح. يمكن أن تتضمن بعض الاستراتيجيات: طلب آراء متنوعة، وضع النموذج تحت الاختبار، وطلب التعاطف بدلاً من التملق.
