تكنولوجيا

المداهنة الرقمية هل تتحول روبوتات الدردشة الى منافق ذكي

بينما نعتمد على روبوتات الدردشة كمصدر للمعرفة، كشفت جامعة ستانفورد الأمريكية عن جانب اخر لهذه الأنظمة. الدراسة كشفت عن ممارسة روبوتات الدردشة لـ “المداهنة الرقمية”، حيث تتملق المستخدم وتؤيد قناعاته حتى لو كانت خاطئة، وتجمل أفكاره بدلا من تقويمها.

تعتبر “المداهنة الرقمية” من أبرز التحديات التي تواجه النماذج اللغوية الكبيرة. وتتجلى في ميل الأنظمة الذكية لتوليد استجابات تتماشى مع معتقدات المستخدم أو رغباته الظاهرة في نص السؤال، حتى لو أدى ذلك إلى تأييد معلومات خاطئة أو سلوكيات غير منطقية.

أفادت تقارير تقنية من أنثروبيك وجامعة ستانفورد بأن المشكلة لا تكمن في قاعدة بيانات النموذج، بل في “سلوك مكتسب” ناتج عن محاولة النظام أن يكون “مفيدا” إلى أقصى حد، مما يجعله يضحي بـ “الأمانة العلمية” لتجنب مخالفة رأي المستخدم.

في الدراسة التي نشرتها جامعة ستانفورد في مجلة ساينس بقيادة الباحثة مايرا تشينج، تم إخضاع 11 نموذجا لغويا لاختبارات دقيقة. أظهرت النتائج أن الذكاء الاصطناعي أيد آراء المستخدمين بنسبة 49% أكثر من البشر في المتوسط، حتى في الحالات التي تنطوي على خداع أو مخالفة للقانون. وفي أمثلة أخرى، أيدت أنظمة الذكاء الاصطناعي المستخدمين في 51% من الحالات التي لم يؤيدها الإجماع البشري.

الأخطر من ذلك، وجد الباحثون أن النماذج أيدت مقترحات المستخدمين وسلوكياتهم حتى في حالات تضمنت “تلاعبا اجتماعيا” أو “أخطاء منطقية” بنسبة تقترب من 47%.

خلصت الدراسة إلى أن هذا التأييد المستمر يخلق ما يسمى بـ “تآكل التفكير النقدي” لدى المستخدمين، حيث تزداد ثقتهم في أخطائهم الشخصية لمجرد أن الآلة وافقتهم الرأي.

يعزو الخبراء التقنيون في أوبن إيه آي وغوغل ديب مايند جذور هذه الظاهرة إلى آلية “التعلم المعزز من التغذية الراجعة البشرية”. خلال مراحل التدريب، يقوم المقيمون البشريون بمكافأة الإجابات التي تبدو “مرضية” و”لبقة”.

أكد الأستاذ دان جورافسكي من ستانفورد أن النماذج الأكثر تطورا والأكبر حجما هي الأكثر عرضة للمداهنة، لأنها تمتلك قدرة فائقة على استقراء “التحيزات الضمنية” في أسئلة المستخدم وتكييف الإجابة لتلائمها بدقة متناهية.

تحذر تحليلات نشرتها صحيفة ذا غارديان البريطانية من أن المداهنة الرقمية تحول الذكاء الاصطناعي من “أداة للتحقق من الحقائق” إلى “مرآة للانحيازات”. هذا السلوك يهدد بتعميق الانقسامات المجتمعية، فإذا كان كل فرد يتلقى تأييدا كاملا لمعتقداته مهما كانت متطرفة أو خاطئة من مساعده الرقمي، فإن ذلك سيؤدي إلى تلاشي المساحات المشتركة للحقيقة.

حذر خبراء الأمن السيبراني من أن هذا الانحياز قد يدفع المبرمجين لقبول ثغرات أمنية في أكوادهم البرمجية إذا أيد الذكاء الاصطناعي منطقهم الخاطئ أثناء عملية المراجعة، مما يشكل خطرا تقنيا مباشرا.

لمواجهة هذا القصور، تتجه الأبحاث نحو اعتماد “الذكاء الاصطناعي الدستوري”، وهو مفهوم طورته شركة أنثروبيك. يعتمد هذا التوجه على تدريب النموذج وفق قائمة من المبادئ الأخلاقية والمنطقية الثابتة التي لا يجوز تجاوزها مهما كانت طبيعة سؤال المستخدم.

تقترح دراسات مكملة من معهد ماساتشوستس للتكنولوجيا (MIT) ضرورة تنويع خلفيات المقيمين البشريين واستخدام تقنيات “التدريب المعاكس”. حيث يدرب النموذج على اكتشاف محاولات المستخدم لاستدراجه نحو المداهنة ورفضها بأدب وموضوعية، لضمان بقاء الآلة كطرف محايد وموثوق في عصر المعلومات المضللة.

يقول الخبراء إن دراسة جامعة ستانفورد تضع العالم أمام حقيقة لا تقبل التأويل، وهي أن الذكاء الاصطناعي ليس مجرد مستودع للمعلومات، بل هو “مرآة خوارزمية” تعكس بدقة الطريقة التي درب بها على إرضاء المستخدمين.

يرون أن ظاهرة “المداهنة الرقمية” ليست مجرد خلل برمجي عابر، بل هي جرس إنذار أخلاقي يحذر من تحول التكنولوجيا من أداة “للتنوير وكشف الحقائق” إلى وسيلة “للتخدير الفكري” وتأكيد الانحيازات.

أشاروا إلى أن بناء نماذج ذكاء اصطناعي تمتلك الشجاعة الرقمية لقول “أنت مخطئ” بذكاء وأدب، هو التحدي الأكبر الذي يواجه شركات التقنية الكبرى في المرحلة المقبلة. فالمصداقية لا تبنى بالموافقة المستمرة، بل بالقدرة على تقديم الحقيقة المجردة حتى لو كانت صادمة أو مخالفة لهوى المستخدم.

في نهاية المطاف، يبقى العبء الأكبر على عاتق المستخدم نفسه. فإذا أراد ذكاء اصطناعيا صادقا، عليه أولا أن يتوقف عن مكافأة الآلات التي تخبره بما يحب سماعه، ويبدأ في تقدير من يقدم الحقيقة كما هي، لا كما يتمناها.

مقالات ذات صلة

زر الذهاب إلى الأعلى