توفر أدوات الذكاء الاصطناعي اكتشافًا مبكرًا لمشاكل المقامرة، لكن الخبراء يحذرون من مخاطر جديدة
بتوقيت بيروت -

نماذج الذكاء الاصطناعي متعدد الوسائط، وهي أنظمة تحلل أنواعًا متعددة من البيانات في وقت واحد، مثل ChatGPT من OpenAI، تظهر كضمانة واعدة، لكن الخبراء يحذرون من أن نفس الأدوات يمكن أيضًا أن تؤدي إلى تفاقم الضرر في حالة إساءة استخدامها.

Dr. Kasra Ghaharian، مدير الأبحاث في جامعة نيفادا، فيغاسوقال المعهد الدولي للألعاب واشنطن الممتحن أنه مع زيادة الوصول يأتي خطر أكبر على اللاعبين للانخراط في سلوك المقامرة الإشكالي.

قال غاهاريان: “لم تعد بحاجة إلى ركوب سيارتك للذهاب إلى الكازينو. كل ما عليك فعله هو الجلوس على أريكتك وتنزيل أحد التطبيقات”. “لا أعتقد أن هناك أي شيء (لا أستطيع أن أقوله) قد يكون أكثر جاذبية أو إدمانًا للمنتج.”

وقد أظهرت الأبحاث أن الارتفاع أدى الوصول إلى الإنترنت إلى زيادة التعرض للمقامرة وكثافتها، خاصة بين المستخدمين الأصغر سنا – وهو التحول الذي جعل نماذج الذكاء الاصطناعي في الوقت نفسه أكثر قدرة على اكتشاف السلوكيات المحفوفة بالمخاطر وتضخيمها من خلال المشاركة الشخصية.

مع تحول المقامرة بشكل أعمق إلى النظم البيئية الرقمية القائمة على التطبيقات، لم يعد الذكاء الاصطناعي وظيفة منفصلة يمكن استخدامها كمساعد شخصي، مثل سؤال ChatGPT عن الرهانات، فقد تم دمجه في منصات المقامرة للإبلاغ عن السلوك. وفي الوقت نفسه، يمكن استخدام الذكاء الاصطناعي لرصد السلوك لجر المقامرين إلى الإدمان بشكل أعمق.

نماذج الذكاء الاصطناعي لتحديد سلوكيات المقامرة المحفوفة بالمخاطر

تولد منصات المقامرة عبر الإنترنت تدفقات مستمرة من البيانات السلوكية، بدءًا من الرهانات الموضوعة والودائع التي تمت وحتى عمليات السحب الملغاة والرسائل المرسلة إلى دعم العملاء. وتقوم نماذج الذكاء الاصطناعي متعدد الوسائط بتحليل تلك الإشارات معًا، مما يسمح للمنصات بتفسير ليس فقط ما يفعله المستخدم، ولكن أيضًا كيف يتغير سلوكه بمرور الوقت.

د.زهراء شاكريوقال أستاذ مساعد في الصحة العامة بجامعة تورنتو واشنطن الممتحن أن هذا التحول قد غيّر كيفية ظهور المقامرة المحفوفة بالمخاطر وكيفية اكتشافها.

وقال شاكيري: “لمقارنة هذه التقنية بالتقنيات التقليدية، أود أن أقول إن التقنيات التقليدية ترى الرهانات، لكن تقنيات الوسائط المتعددة ستشاهد هذه القصة حول الرهانات وهنا يظهر الضرر مبكراً”.

وقال شاكيري إن الضمانات التقليدية تعتمد على عتبات ثابتة مثل حدود الإنفاق أو مدة الجلسة. وقالت إن الأدوات القديمة تكافح من أجل مواكبة بيئات المقامرة التي تعتمد على الذكاء الاصطناعي حيث تتكيف خيارات الرهان والعروض الترويجية والمطالبات باستمرار مع سلوك المستخدم.

تسمح نماذج الذكاء الاصطناعي متعددة الوسائط بالتدخل في المقامرة المحفوفة بالمخاطر، مثل تجميد حساب اللاعب، قبل أن تؤدي مغامرات الرهان غير الرسمية إلى سلوك المشكلة.

وقال شاكيري: “إذا نظرنا فقط إلى المعاملات التي تستخدم التقنيات التقليدية، فإننا سنكتشف الضرر بعد فوات الأوان”. “إن الأمر يشبه تشخيص مرض الرئة فقط من خلال التحقق من عدد المرات التي يشتري فيها شخص ما قطرات السعال. على سبيل المثال، مع الوسائط المتعددة، فإنك تنظر إلى البيانات الواردة من … مصادر مختلفة، وسوف يمنحك ذلك فكرة أفضل عن السياق والمشكلة “.

خطر نماذج الذكاء الاصطناعي في القمار

يحذر الباحثون من أن أنظمة الذكاء الاصطناعي نفسها القادرة على تحديد نقاط الضعف مبنية على منصات مُحسَّنة للمشاركة. وهذا يعني أن اكتشاف المخاطر وخلق المخاطر يمكن أن ينبع من نفس الأنظمة متعددة الوسائط.

وقال شاكيري: “نحن نعلم أن تطبيق الذكاء الاصطناعي في هذا المجال هو أيضًا سلاح ذو حدين”. “يجب بالتأكيد أن تكون هناك لوائح سياسية… تستهدف كيفية استخدام الذكاء الاصطناعي وكيفية استخدام الذكاء الاصطناعي لمعالجة المشكلة.”

وقال شاكيري، الذي عمل مع فرق بحثية تعمل على بناء أنظمة متعددة الوسائط، إن النماذج المصممة لاكتشاف السلوكيات المحفوفة بالمخاطر يمكن أيضًا إعادة توظيفها لتحديد المستخدمين الأكثر استجابة للحوافز أو العروض الترويجية، مما قد يدفع اللاعبين الضعفاء نحو مشاركة أكبر.

يثير الاستخدام المتزايد لنماذج الذكاء الاصطناعي ذات اللغات الكبيرة مخاوف إضافية، لا سيما مع تحول اللاعبين بشكل متزايد إلى أدوات الذكاء الاصطناعي لتوجيه قرارات الرهان.

مع استمرار نمو الذكاء الاصطناعي، توقع غاهريان أن اللاعبين سيرون إمكانية استخدام لغة الذكاء الاصطناعي الكبيرة للمساعدة في المقامرة وضبط ما يسمى بالاستراتيجيات، حتى لو تم تنفيذ هذه الأدوات كحماية للاعبين.

وقال غاهاريان: “سنبدأ حقًا في رؤية الكثير من المساعدة في المراهنة والمنتجات القائمة على LLM”. “أعتقد أنه سيكون من المهم بالنسبة لـ… (منظمي المقامرة) أن يبدأوا في التفكير في كيفية توصيل كيفية عمل هذه التكنولوجيا، حتى يعرف الأشخاص الذين يستخدمون هذه الأدوات المخاطر، ويعرفون الحدود، ويمكنهم استخدامها بطريقة آمنة ومسؤولة.”

بشكل أساسي، إذا كان تطبيق المقامرة يحتوي على روبوت محادثة يعمل بالذكاء الاصطناعي يتدخل عندما ينخرط اللاعبون في سلوك محفوف بالمخاطر، فيمكن للاعبين أيضًا أن يسألوا الروبوت عن الرهانات أو الإستراتيجية أو احتمالات الرهان.

تستخدم شركات المقامرة عبر الإنترنت الذكاء الاصطناعي الآن

في مواجهة ازدواجية أنظمة الذكاء الاصطناعي متعددة الوسائط للتدخل في المقامرة المحفوفة بالمخاطر، بدأت شركات المقامرة في استخدام الذكاء الاصطناعي ليس فقط لتحليل السلوك، ولكن لتغيير كيفية ووقت حدوث التدخلات.

كتاب رياضي متعصب قامت بدمج الأدوات المعتمدة على الذكاء الاصطناعي في إطار اللعب المسؤول الخاص بها جنبًا إلى جنب مع الضمانات التقليدية.

قال أنتوني دانجيلو، رئيس قسم الألعاب المسؤولة في Fanatics، لـ واشنطن الممتحن تتبع الشركة نيو جيرسيأفضل ممارسات الألعاب المسؤولة على المستوى الوطني، حتى في الولايات التي لا يتم فيها فرض مثل هذه المراقبة.

لقد استخدم المتعصبون نظامًا لتسجيل المخاطر قائمًا على الذكاء الاصطناعي، نيكتونوقال دانجيلو، الذي طوره الباحث في مجال القمار الدكتور مايكل أوير. يقوم النظام بتقييم العشرات من المؤشرات السلوكية ويعين للاعبين درجة المخاطرة، مما يسمح لفرق اللعب المسؤولة بتحديد أولويات المراجعات والتدخل مبكرًا عند الضرورة.

وقال دانجيلو: “يمتلك نيكتون خوارزمية خاصة، لا نلمسها… لدينا نموذج (أوير) لتحديد ما يعتقد أنه علامات الضرر”. “لنفترض أنك شخص يلغي عمليات السحب في كثير من الأحيان أو لديه الكثير من الأموال غير الكافية… وهذا من شأنه أن يرفع درجاتك، وهو ما يعني أنه ربما يجب على شخص ما التدخل وإجراء مراجعة لحسابك.”

بدلاً من الاستجابة لمحفزات معزولة، مثل إيداع كبير أو مجموعة من الرهانات، يعرض النظام حسابات تظهر تغيرًا سلوكيًا مستدامًا أو متسارعًا، مما يسمح لفرق اللعب المسؤولة بالتدخل مبكرًا في دورة مراهنة اللاعب.

وقال دانجيلو: “علينا أن نقوم بنوع من التدخل، سواء كان ذلك بمثابة اتصال، أو مراجعة عميقة من قبل فريق عمليات RG لتحديد ما إذا كنا بحاجة إلى … المضي قدمًا في التعليق”. “يمكننا إيقاف اللاعب عن العمل لمدة محددة من الوقت أو حق دائم، اعتمادًا على ما إذا كان هناك مؤشر واضح.”

وقال دانجيلو إن الذكاء الاصطناعي لا يشخص الإدمان ولا يتصرف بشكل مستقل. وبدلاً من ذلك، فهو يعمل على توحيد المراجعات وتقليل الموضوعية، مما يساعد الفرق البشرية على تحديد الاتجاهات المثيرة للقلق بشكل أكثر اتساقًا.

يتم أيضًا استخدام نماذج اللغة الكبيرة داخليًا لتحليل اتصالات العملاء بحثًا عن المشاعر التي قد تشير إلى الضيق، مما يؤدي إلى التصعيد إلى متخصصي المقامرة المسؤولين.

قرارات السياسة حول تأثير الذكاء الاصطناعي

نظرًا لأن الذكاء الاصطناعي أصبح متجذرًا بشكل أعمق في منصات المقامرة، قال الباحثون إن تأثيره على سلوك المقامرة سيعتمد في النهاية على التنظيم.

وقال غاهاريان إن المرحلة التالية من المقامرة الرقمية ستشمل على الأرجح المزيد من أدوات المساعدة في المراهنة المعتمدة على الذكاء الاصطناعي، مما يزيد من عدم وضوح الخط الفاصل بين التوجيه والتأثير.

وقال غاهاريان: “لا أعتقد أن مشغلي المقامرة ربما يدركون أن هذه التقنيات تُستخدم وما هي المخاطر”. “أعتقد أنه قد تكون هناك فرصة لمنظمي المقامرة للتدخل على وجه التحديد والقول، “أوه، أنت بحاجة إلى البدء في إجراء تقييمات سلامة محددة على (نماذج اللغة الكبيرة) إذا كانوا يستخدمون سيناريوهات تواجه العملاء”. وهذا شيء أود رؤيته.”

الذكاء الاصطناعي لن يتسبب في نهاية مفاجئة للوظائف، بل في حرب استنزاف

وقال شاكيري إن السؤال الذي يواجه صناع السياسات ليس ما إذا كان الذكاء الاصطناعي سيشكل سلوك المقامرة، بل كيف سيفعل ذلك.

وقالت: “السؤال ليس ما إذا كان سيتم استخدام الذكاء الاصطناعي أم لا”. “هذا هو الهدف الذي نسمح له بتحسينه.



إقرأ المزيد