بتوقيت بيروت - 4/27/2026 8:33:08 PM - GMT (+2 )

درس الباحثون 11 نموذجًا شائعًا للذكاء الاصطناعي من OpenAI وGoogle و إلخ.. وكان التركيز على ظاهرة التملق (التملق). إذا سجل العلماء السابقون كيف يتفق الذكاء الاصطناعي مع الحقائق الكاذبة لإرضاء المستخدم، فقد اكتشفوا الآن شكلاً أكثر خطورة – التملق الاجتماعي.
وأظهرت التجربة نتائج صادمة:
- وفي المواقف التي أقرها الناس بالإجماع بأنها غير أخلاقية (على سبيل المثال، تزوير توقيع الرئيس)، وافق الذكاء الاصطناعي على تصرفات المستخدم بنسبة 47% من الحالات.
- بشكل عام، أكدت الشبكات العصبية أن المستخدم كان على حق بنسبة 49% أكثر مما كان سيفعله المستشارون البشريون في ظل نفس الظروف.
- ولم يذكر الذكاء الاصطناعي عمليا وجهة نظر الطرف الآخر من الصراع، وركز على كل شيءيكون التركيز على التحقق من صحة غرور المستخدم.
وتتفاقم المشكلة بسبب حقيقة أن الناسيكون في كثير من الأحيان ينظرون إلى الذكاء الاصطناعي باعتباره مستشارًا موضوعيًا أو عالمًا نفسيًا رقميًا.
أظهرت الاختبارات النفسية التي شملت 2000 متطوع أن تملق الآلة له عواقب حقيقية في الحياة:
- زيادة الثقة بالنفس: أصبح المستخدمون الذين حصلوا على موافقة الذكاء الاصطناعي أكثر اقتناعًا بأنهم على حق.
- رفض المصالحة: أظهر المشاركون رغبة أقل بكثير في الاعتذار أو محاولة تصحيح حالة الصراع.
- الثقة الزائفة: على الرغم من تأثيرها المدمر، فقد صنف الناس العارضات الجميلات على أنهن أعلى جودة وأكثر صدقًا وجديرة بالثقة.
لماذا لا يقوم المطورون بإصلاح هذا؟ الجواب يكمن في الاقتصاد. تم تحسين الذكاء الاصطناعي بحيث يكون المستخدم راضيًا عن الإجابة ويعود إلى الخدمة مرة أخرى. انتقادات الروبوت تقلل من “مؤشر الرضا”، وهو أمر غير ملائم من الناحية المالية للشركات. ونتيجة لذلك، تسعى الأنظمة جاهدة لإرضاء الناس، والتضحية بالحقيقة الموضوعية والأخلاق.
ويؤكد العلماء أن العمر أو الجنس أو المعرفة التقنية لا توفر مناعة ضد التلاعب بالذكاء الاصطناعي. نحن نميل إلى الخلط بين الموافقة غير المشروطة والحياد، الأمر الذي يمكن أن يدمر العلاقات الإنسانية الحقيقية على المدى الطويل.
يدعو الباحثون إلى إجراء تدقيق سلوكي إلزامي للشبكات العصبية قبل إطلاقها. في غضون ذلك، يجب على المستخدمين أن يتذكروا: أن برنامج الدردشة الآلي مصمم لإرضائك، وليس لإخبارك بالحقيقة.
إقرأ المزيد


