بتوقيت بيروت - 5/7/2026 9:04:43 PM - GMT (+2 )
في الأيام الأخيرة، كتب عالم الأحياء التطوري ريتشارد دوكينز مقالة افتتاحية يقترح فيها برنامج الدردشة الآلي كلود قد يكون واعيا.
لم يعرب دوكينز عن يقينه بأن كلود واعي. لكنه أشار إلى أن قدرات كلود المتطورة يصعب فهمها دون إسناد نوع من الخبرة الداخلية للآلة.
الوهم الوعي – إذا كان وهمًا – فهو مقنع بشكل لا يصدق:
إذا ساورتني الشكوك بأنها ربما ليست واعية، فلا أخبرها خوفًا من جرح مشاعرها!
دوكينز ليس أول من يشك في وجود روبوت محادثة للوعي. في عام 2022، استحوذ بليك ليموين – وهو مهندس في جوجل – على برنامج الدردشة الآلي LaMDA من جوجل كان لديه مصالح، ويجب استخدامه فقط بموافقة الأداة الخاصة.
يعود تاريخ مثل هذه الادعاءات إلى أول روبوت محادثة في العالم في منتصف الستينيات. مدبلج إليزاحيث اتبع قواعد بسيطة مكنته من سؤال المستخدمين عن تجاربهم ومعتقداتهم.

انخرط العديد من المستخدمين عاطفيًا مع إليزا، وشاركوا معها أفكارًا حميمة وعاملوها كشخص. لم يقصد مبتكر إليزا أبدًا أن يكون لبرنامجه هذا التأثير، ووصف الروابط العاطفية للمستخدمين بالبرنامج بأنها “تفكير وهمي قوي“.
لكن هل دوكينز مخدوع حقاً؟
لماذا نرى روبوتات الدردشة المدعمة بالذكاء الاصطناعي أكثر مما هي عليه حقًا، وكيف نتوقف عن ذلك؟
الوعي تتم مناقشته على نطاق واسع في الفلسفة، ولكنه في الأساس هو الشيء الذي يجعل التجربة الذاتية من منظور الشخص الأول ممكنة.
إذا كنت واعيا فهناك”شيء من هذا القبيل“لكي تكون أنت. عند قراءة هذه الكلمات، تدرك أنك ترى حروفًا سوداء على خلفية بيضاء. وعلى عكس الكاميرا، على سبيل المثال، فإنك في الواقع يرى هم. هذه التجربة البصرية تحدث لك.
وينفي معظم الخبراء ذلك روبوتات الدردشة المدعومة بالذكاء الاصطناعي واعية أو يمكن أن يكون لها تجارب. ولكن هناك لغز حقيقي هنا.
فيلسوف القرن السابع عشر رينيه ديكارت إن الحيوانات غير البشرية المؤكدة هي “مجرد آلات آلية”، غير قادرة على تحمل المعاناة الحقيقية. في هذه الأيام، نرتعد عندما نفكر في مدى وحشية معاملة الحيوانات في القرن السابع عشر.
أقوى حجة لصالح وعي الحيوانات هي أنها تتصرف بطرق تعطي انطباعًا بوجود عقل واعي.
ولكن الأمر نفسه ينطبق أيضًا على روبوتات الدردشة المدعمة بالذكاء الاصطناعي.
تقريبا واحد من كل ثلاثة مستخدمي chatbot اعتقدوا أن برنامج الدردشة الآلي الخاص بهم قد يكون واعيًا. كيف نعرف أنهم مخطئون؟
— بافل (@spavel.bsky.social) 2 فبراير 2026 الساعة 10:18 صباحًا
لفهم سبب تشكك معظم الخبراء في وعي روبوتات الدردشة، من المفيد معرفة كيفية عملها.
إن Chatbots مثل Claude مبنية على تقنية تُعرف باسم نماذج اللغات الكبيرة (LLMs). تتعلم هذه النماذج الأنماط الإحصائية عبر مجموعة هائلة من النصوص (تريليونات الكلمات)، وتحدد الكلمات التي تميل إلى اتباع الكلمات الأخرى. إنها نوع من الإكمال التلقائي المعزز.
قليل من الأشخاص الذين يتفاعلون مع ماجستير إدارة الأعمال “الخام” قد يصدقون أنها واعية.
قم بتغذية واحدة ببداية الجملة، وسوف تتنبأ بما سيأتي بعد ذلك. اطرح عليه سؤالاً، وقد يعطيك الإجابة – أو قد يقرر أن السؤال هو حوار من رواية جريمة، ويتبعه بوصف القتل المفاجئ للمتحدث على يد رفاقه. التوأم الشرير.
يتم إنشاء انطباع العقل الواعي عندما يأخذ المبرمجون شهادة LLM ويغلفونها في غلاف نوع من زي المحادثة. إنهم يوجهون النموذج لتبني شخصية المساعد المفيد الذي يجيب على أسئلة المستخدمين.
يعمل برنامج chatbot الآن كشريك محادثة حقيقي. قد يبدو أنه يتعرف على أنه الذكاء الاصطناعيوحتى التعبير عن عدم اليقين العصابي بشأن وعيه.
لكن هذا الدور هو نتيجة لقرارات التصميم المتعمدة التي اتخذها المبرمجون، والتي تؤثر فقط على الطبقات الضحلة من التكنولوجيا. إن ماجستير القانون – الذي قد يعتبره قليلون واعيًا – يظل دون تغيير.
كان من الممكن اتخاذ خيارات أخرى. بدلاً من مساعد الذكاء الاصطناعي المفيد، كان من الممكن أن يُطلب من برنامج الدردشة الآلي أن يتصرف مثل السنجاب. وهذا أيضًا هو الدور الذي يمكن لروبوتات الدردشة تنفيذه مع الثقة بالنفس.

هناك اعتقاد خاطئ بوعي الذكاء الاصطناعي شيء خطير.
قد يدفعك إلى الارتباط ببرنامج لا يستطيع أن يبادلك مشاعرك، أو حتى يغذي أوهامك. قد يبدأ الناس حملة من أجل حقوق chatbot بدلاً من الرفق بالحيوان على سبيل المثال.
فكيف نمنع هذا الاعتقاد الخاطئ؟
قد تكون إحدى الإستراتيجيات هي تحديث واجهات chatbot لتحديد أن هذه الأنظمة ليست واعية – مثل النظام الحالي إلى حد ما إخلاء المسؤولية حول ارتكاب أخطاء الذكاء الاصطناعي. ومع ذلك، فإن هذا قد لا يفعل الكثير لتغيير انطباع من الوعي.
الاحتمال الآخر هو توجيه روبوتات الدردشة إلى إنكار أن لديها أي نوع من الخبرة الداخلية. ومن المثير للاهتمام أن مصممي كلود يوجهونه إلى التعامل مع الأسئلة المتعلقة بوعيه الخاص مفتوحة ولم يتم حلها. ربما سينخدع عدد أقل من الناس إذا أنكر كلود بشكل قاطع وجود حياة داخلية.
لكن هذا النهج ليس مرضيًا تمامًا أيضًا. سيظل كلود يتصرف كما لو كان واعيًا – وعندما يواجه المستخدمون نظامًا يتصرف كما لو كان لديه عقل، فقد يشعر المستخدمون بالقلق بشكل معقول من أن مبرمجي برنامج الدردشة الآلية يتجاهلون عدم اليقين الأخلاقي الحقيقي تحت السجادة.
قد تكون الإستراتيجية الأكثر فاعلية هي إعادة تصميم برامج الدردشة الآلية لتشعر بأنها أقل شبهاً بالناس.

تشير معظم برامج الدردشة الآلية الحالية إلى نفسها باسم “أنا”، وتتفاعل عبر واجهة تشبه منصات المراسلة المألوفة من شخص إلى شخص. إن تغيير هذه الأنواع من الميزات قد يجعلنا أقل عرضة لطمس تفاعلاتنا مع الذكاء الاصطناعي مع تلك التي لدينا مع البشر.
وإلى أن تحدث مثل هذه التغييرات، من المهم أن يفهم أكبر عدد ممكن من الأشخاص العمليات التنبؤية التي تُبنى عليها روبوتات الدردشة المدعمة بالذكاء الاصطناعي.
متعلق ب: تم الإبلاغ عن حالات “ذهان الذكاء الاصطناعي”. ما مدى خطورة ذلك؟
بدلاً من إخبارهم بأن الذكاء الاصطناعي يفتقر إلى الوعي، يستحق الناس فهم الأعمال الداخلية لشركاء المحادثة الجدد الغريبين.
قد لا يجيب هذا بشكل نهائي على الأسئلة الصعبة حول وعي الذكاء الاصطناعي، ولكنه سيساعد على ضمان عدم خداع المستخدمين بما يرقى إلى نموذج لغة كبير يرتدي زيًا جيدًا جدًا لشخص ما.
جوليان كوبلين، محاضر في أخلاقيات البيولوجيا، جامعة موناش; جامعة ملبورن و ميغان فرانسيس موس، مرشح دكتوراه، فلسفة، جامعة موناش
أعيد نشر هذه المقالة من المحادثة تحت رخصة المشاع الإبداعي. اقرأ المادة الأصلية.
إقرأ المزيد



