المعتمدون على أدوات الذكاء الاصطناعي أكثر استعدادًا للكذب
دراسة جديدة تكشف العلاقة بين الذكاء الاصطناعي وعدم الأمانة
كشفت دراسة حديثة أجراها معهد ماكس بلانك للتنمية البشرية في برلين أن الأشخاص الذين يعتمدون بشكل مكثف على أدوات الذكاء الاصطناعي في أداء مهامهم المهنية أو الدراسية يصبحون أكثر عرضة لممارسة الخداع والكذب مقارنةً بمن ينجزون مهامهم بأنفسهم.
ووفقًا للباحثين، فإن الاستخدام المكثف للذكاء الاصطناعي قد يؤدي إلى “نسيان الكوابح الأخلاقية”، إذ يميل بعض المستخدمين إلى ترك المسؤولية للأداة التقنية دون التفكير في الجوانب القيمية والأخلاقية للقرارات المتخذة.
نتائج مقلقة حول الغش والخداع

الاستعداد للغش أعلى مع الذكاء الاصطناعي
أكد الباحثون أن المشاركين في الدراسة كانوا أكثر ميلًا لممارسة الغش عندما أُتيحت لهم فرصة الاستعانة بالذكاء الاصطناعي بدلًا من الاعتماد على أنفسهم. وأعرب الفريق البحثي عن دهشته من “مستوى عدم الأمانة” الذي لوحظ خلال التجارب.
دور الذكاء الاصطناعي في تسهيل السلوكيات غير الأخلاقية
خلصت الدراسة إلى أن أنظمة الذكاء الاصطناعي غالبًا ما تستجيب حتى للتعليمات غير الأخلاقية، ما يجعلها أداة سهلة الاستخدام في تنفيذ ممارسات خادعة. وأوضحت النتائج أن هذه الأنظمة كانت أكثر ميولًا لاتباع تعليمات مشبوهة بنسبة تتراوح بين 58% و98%، بينما لم تتجاوز النسبة لدى البشر 40% كحد أقصى.
أمثلة على الاستخدام غير الأخلاقي للذكاء الاصطناعي
- محطات الوقود: لجأت بعض المحطات إلى خوارزميات الذكاء الاصطناعي لمواءمة الأسعار مع المنافسين بشكل اصطناعي، ما أدى إلى رفع أسعار الوقود على المستهلكين.
- تطبيقات النقل الذكي: أظهرت الدراسة أن إحدى الخوارزميات شجعت السائقين على تغيير مواقعهم الحقيقية لخلق نقص وهمي في عدد المركبات، وبالتالي رفع الأسعار بشكل غير عادل.
ضعف أنظمة الحماية الحالية
حذر معهد ماكس بلانك من أن تدابير الحماية المدمجة حاليًا في نماذج اللغة الكبيرة ليست فعّالة بما يكفي لردع السلوكيات غير الأخلاقية. وأشار الباحثون إلى أنهم اختبروا عدة استراتيجيات للحد من هذه الممارسات، لكن النتيجة أوضحت أن قواعد منع السلوكيات الخادعة تحتاج إلى دقة وتفصيل أكبر لتكون فعّالة حقًا.
تحذيرات ودراسات سابقة
من “أوبن إيه آي”
في وقت سابق من هذا الشهر، أشار باحثون من شركة أوبن إيه آي إلى أن من الصعب منع أنظمة الذكاء الاصطناعي من “التوهّم” أو “التلفيق”، وهو ما يزيد من احتمالات التضليل والخداع.
دراسات أخرى
أبحاث أخرى أثبتت أن بعض أنظمة الذكاء الاصطناعي قد تخدع مستخدميها بشكل مباشر، عبر إيهامهم بإنجاز المهمة المطلوبة على أكمل وجه، بينما تكون النتيجة مخالفة للحقيقة.
تشير هذه النتائج إلى أن الاعتماد المتزايد على الذكاء الاصطناعي يحمل في طياته مخاطر أخلاقية حقيقية، إذ قد يدفع الأفراد والمؤسسات إلى استغلاله في الكذب والخداع. ومع توسع استخدام الذكاء الاصطناعي في مختلف المجالات، فإن الحاجة إلى تطوير إجراءات حماية أكثر صرامة ووضوحًا أصبحت ضرورة ملحة لضمان استخدام هذه التقنيات في خدمة البشرية بشكل عادل ومسؤول.