بتوقيت بيروت - 5/7/2026 3:04:17 PM - GMT (+2 )
الائتمان: نوفيكوف أليكسي / شاترستوك
أطلق المدعون العامون في فلوريدا تحقيقًا جنائيًا في شركة الذكاء الاصطناعي OpenAI، وما إذا كان برنامج الدردشة الآلي الخاص بالشركة ChatGPT قد تم استخدامه لمساعدة المشتبه به في إطلاق النار الجماعي في مدرسة بجامعة ولاية فلوريدا في أبريل من العام الماضي. لم يتم توجيه أي اتهامات ضد الشركة، ولم يتم اتهامها بارتكاب جريمة، لكن التحقيق سلط الضوء على أحد أكبر التحديات التي تواجه شركات الذكاء الاصطناعي: لماذا يصعب تطوير روبوتات الدردشة التي تلتزم بالقوانين والأخلاق والقيم الإنسانية؟
ينص قانون فلوريدا على أن أي شخص يساعد شخصًا ما في ارتكاب جريمة يمكن أن يتحمل أيضًا مسؤولية تلك الجريمة. في أ بيان لوسائل الإعلاموقال المدعي العام للولاية، جيمس أوثميير، إنه إذا كان برنامج الدردشة الآلي شخصًا، فسيواجه اتهامات بالقتل.
تزايدت المخاوف بشأن روبوتات الدردشة ذات النماذج اللغوية الكبيرة (LLM) التي تقدم نصائح خطيرة أو غير قانونية في السنوات القليلة الماضية، بعد أمثلة على تشجيع الأشخاص على الانتحار وإنشاء مواد جنسية غير قانونية وارتكاب عمليات احتيال مالي.
وبغض النظر عما إذا كان تحقيق فلوريدا سيؤدي إلى عواقب قانونية بالنسبة لشركة OpenAI، ومقرها سان فرانسيسكو، كاليفورنيا، فإنه سيزيد الضغط على الشركات لإثبات فعالية تدابير السلامة الخاصة بها، كما يقول عثمان نسيم، الباحث في ماجستير إدارة الأعمال في جامعة ماكواري في سيدني، أستراليا. في الوقت نفسه، تحاول الأبحاث في عملية ترميز القيم الإنسانية في نماذج الذكاء الاصطناعي لجعلها مفيدة وآمنة – والتي تسمى المواءمة – إيجاد حلول أخرى.
لم يستجب OpenAI ل الطبيعة طلب التعليق على التحقيق، لكن متحدثًا باسم شركة الذكاء الاصطناعي قال لبي بي سي إنها تعاونت مع السلطات وأن “ChatGPT ليست مسؤولة عن هذه الجريمة الفظيعة”.
ما هي تدابير السلامة الحالية؟في الوقت الحاضر، يتم وضع معايير السلامة لروبوتات الدردشة المدعمة بالذكاء الاصطناعي من قبل الشركات، وهناك إشراف خارجي محدود، كما يقول نسيم. اعترفت العديد من الشركات بوجود مشكلة وقالت إنها أدخلت تدابير أمان لمنع روبوتات الدردشة من تقديم النصائح التي قد تؤدي إلى سلوك خطير. لكن بعض الباحثين يدعون إلى إجراء اختبارات سلامة مستقلة.
أحد إجراءات السلامة التي تم تقديمها هو مرشحات المحتوى التي تعني أن أداة الذكاء الاصطناعي ترفض الاستجابة للطلبات التي تتضمن كلمات معينة. ومع ذلك، هناك العديد من الطرق التي يمكن للمستخدمين من خلالها التغلب على هذه المشكلات، كما يقول توبي والش، الباحث في الذكاء الاصطناعي بجامعة نيو ساوث ويلز في سيدني. يمكن إعادة صياغة المطالبات ذات النية الضارة للتغلب على الضمانات، على سبيل المثال، عن طريق كتابة الطلبات في سياقات افتراضية أو خيالية. ويضيف والش أن هذا يمكن أن يجعل من الصعب على أداة الذكاء الاصطناعي فحص الطلبات الإشكالية من الطلبات الحميدة.
لكن العديد من تدابير السلامة، بما في ذلك مرشحات المحتوى والتدريب السلوكي وقواعد السياسة، هي ضوابط خارجية موضوعة فوق النظام بدلاً من أن يتمتع النظام بفهم حقيقي للأخلاقيات أو النوايا، كما يقول نسيم. ويضيف: “تلك الضمانات مفيدة، لكنها ليست مثالية، ولا يزال بإمكان المستخدمين العازمين إيجاد طرق للالتفاف حولها”.
لماذا لا تمتثل LLMs للقوانين الإنسانية؟ويكمن جزء من المشكلة في الطريقة التي يتعلم بها طلاب ماجستير إدارة الأعمال الأكثر شهرة – بالقدوة بدلاً من اتباع مجموعة من القواعد. يتم تدريب LLMs على المستودع الهائل للنصوص المتوفرة على الإنترنت. عندما يطرح المستخدم سؤالاً، أو “مطالبة”، تتوقع LLM التسلسل الأكثر احتمالاً للكلمات.
ويعني هذا التصميم أنهم قادرون على الاستجابة لمجموعة كبيرة من المطالبات. إنهم “متخصصون في جميع المهن”، كما يقول والش، لكن هذا يجعل من الصعب وضع حواجز حول ما لا ينبغي عليهم قوله.
يقول نسيم إن إجابات ماجستير إدارة الأعمال هي إكمال النموذج. ويقول: “إنهم لا يفهمون حقًا المعنى أو العواقب”.
يقول والش إن الباحثين حاولوا تعليم أنظمة الذكاء الاصطناعي كيفية اتباع القواعد في الماضي. هناك نوع أقدم من الذكاء الاصطناعي يُعرف باسم الذكاء الاصطناعي الرمزي والذي كان شائعًا في الخمسينيات والستينيات من القرن الماضي، وكان يتضمن تعليم أجهزة الكمبيوتر كيفية اتباع القواعد. لكن هذه الأنظمة لم تنجح في حل مشكلات العالم الحقيقي واسعة النطاق، لأن المطورين لم يتمكنوا من كتابة قواعد كافية لتغطية جميع المواقف، كما يقول سايمون لوسي، الباحث في الذكاء الاصطناعي بجامعة أديلايد بأستراليا.
يقول والش إن إحدى الطرق لضبط برامج ماجستير إدارة الأعمال الحالية لتكون أكثر أمانًا هي التعلم المعزز من ردود الفعل البشرية. في هذا المثال، يقوم البشر باختبار مخرجات LLM ومساعدتها في كتابة الاستجابات المفضلة للمطالبات. ويضيف أن هذا النوع أو التعلم يتطلب موارد كثيفة ومكلفًا.
هناك طريقة أخرى لضمان السلامة تتمثل في إزالة المعلومات الضارة من مجموعات البيانات الأولية المستخدمة لتدريب نماذج الذكاء الاصطناعي، ولكن أظهرت الأبحاث أن هذا ليس ناجحًا دائمًا. ويقول والش إن التمشيط اليدوي لمجموعات البيانات الضخمة سيكون مكلفًا للغاية بالنسبة لشركات التكنولوجيا.
إقرأ المزيد


