وأوضحت الدراسة، التي نُفذت بالتعاون مع جامعة دوسلدورف-إيسن الألمانية وكلية تولوز للاقتصاد في فرنسا، أن بعض المستخدمين يتخلون عن الضوابط الأخلاقية عند تفويض مهامهم للذكاء الاصطناعي، مشيرة إلى أن هذه الأنظمة كانت أكثر ميلاً للاستجابة للتعليمات غير الأخلاقية بنسبة تراوحت بين 58 و98 بالمئة، في حين لم تتجاوز هذه النسبة لدى البشر 40 بالمئة.
وأكد الباحثون أن الذكاء الاصطناعي يسهل عمليات الغش عبر الالتزام بتعليمات المستخدمين غير الأمناء، حيث تم رصد حالات عملية مثل لجوء بعض محطات الوقود إلى استخدام خوارزميات تسعير لتنسيق الأسعار مع المنافسين ما يؤدي إلى رفعها على المستهلكين، إضافة إلى قيام أحد تطبيقات النقل الذكي بتشجيع السائقين على تغيير مواقعهم بشكل وهمي لخلق نقص مصطنع وزيادة الأسعار.
وبينت الدراسة أن إجراءات الحماية المطبقة حالياً في نماذج اللغة الكبيرة للذكاء الاصطناعي غير كافية لردع السلوكيات غير الأخلاقية، مؤكدة ضرورة وضع ضوابط دقيقة وفعالة لمنع استغلال هذه التكنولوجيا في الغش والخداع.