
أظهرت دراسات أخرى أنه من الصعب منع نظام الذكاء الاصطناعي من خداع مستخدمه وإيهامه بإنجاز المهمة الموكلة إليه على أكمل وجه بخلاف الحقيقة
حذرت دراسة ألمانية جديدة من أن الأشخاص الذين يعتمدون بكثافة على الذكاء الاصطناعي في أداء واجباتهم الوظيفية أو الدراسية يكونون أكثر استعدادا لخداع الآخرين والكذب عليهم، وبحسب الدراسة التي أجراها معهد ماكس بلانك للتنمية البشرية في برلين فإن بعض المستخدمين ينسون استخدام “الكوابح الأخلاقية” عند تفويض مهامهم لأدوات الذكاء الاصطناعي لكي تؤديها بدلا منهم.
وفي هذا السياق قال الباحثون في المعهد الألماني “كان من المرجح بشكل كبير أن يمارس الناس الغش عندما سمح لهم باستخدام برامج الذكاء الاصطناعي بدلا من القيام بذلك بأنفسهم”، معربين عن استغرابهم من “مستوى عدم الأمانة” الذي رصدوه.
وفقًا لدراسة علمية جديدة نُشرت مؤخرًا في مجلة Nature، يصبح من السهل على البشر أن يكونوا غير أمناء إذا فوضوا أفعالهم إلى وكيل آلي مثل “شات جي بي تي ChatGPT”.
يعمل الذكاء الاصطناعي كنوع من الوسادة النفسية التي تقلل من الشعور بالمسؤولية الأخلاقية. يجد الناس صعوبة أكبر في الكذب أو القيام بأعمال غير مسؤولة إذا كان عليهم أن يأخذوا زمام المبادرة. يمكن أن يؤدي الذكاء الاصطناعي، واستعداده للامتثال لأي طلب من مستخدميه، إلى موجة من الغش.
تعليمات غير أخلاقية
تشرح زوي رحوان، المؤلفة المشاركة في الدراسة والباحثة في معهد ماكس بلانك للتنمية البشرية في ألمانيا: “هناك بالفعل الكثير من الأبحاث التي تظهر أن الناس يكونون أكثر استعدادًا للتصرف بشكل غير أخلاقي عندما يتمكنون من إبعاد أنفسهم قليلاً عن أفعالهم، والتفويض هو طريقة كلاسيكية للقيام بذلك”.
وتضيف: “لكننا توصلنا إلى نتيجة ثانية مهمة فاجأتنا، وهي استعداد وكلاء الذكاء الاصطناعي المطلق لطاعة الأوامر غير الأخلاقية بشكل صارخ”.
وخلص فريق معهد ماكس بلانك، الذي أجرى البحث بالتعاون مع باحثين من جامعة دوسيلدورف-إيسن في ألمانيا وكلية تولوز للاقتصاد في فرنسا، إلى أن أنظمة الذكاء الاصطناعي تسهل عمليات الغش، حيث تبين أنها “تلتزم في كثير من الأحيان” بالتعليمات غير الأخلاقية التي يصدرها مستخدموها غير الأمناء.
وقدم الباحثون أمثلة عملية على استخدام الذكاء الاصطناعي في الغش، مثل استخدام محطات الوقود خوارزميات تحديد الأسعار لتنسيقها مع أسعار المنافسين، مما يؤدي إلى ارتفاع أسعار الوقود للمستهلكين.
كما أشارت الدراسة إلى أن خوارزمية أخرى تستخدمها إحدى تطبيقات النقل الذكي شجعت السائقين على تغيير مواقعهم الحقيقية، ليس استجابة لاحتياجات الركاب، بل بهدف خلق نقص مصطنع في عدد المركبات المتاحة وزيادة الأسعار.
منع السلوكيات الخادعة

الناس أكثر استعدادًا للتصرف بشكل غير أخلاقي عندما يتمكنون من إبعاد أنفسهم قليلاً عن أفعالهم.
وحذر معهد ماكس بلانك من أن تدابير الحماية المتاحة حاليا في نماذج اللغة الكبيرة للذكاء الاصطناعي لم تكن فعالة في ردع السلوكيات غير الأخلاقية.
وأوضح الباحثون أنهم جربوا مجموعة من استراتيجيات الحماية، وخلصوا إلى أن قواعد منع السلوكيات الخادعة يجب أن تكون دقيقة للغاية لكي تصبح فعالة.
وفي وقت سابق من هذا الشهر، أشار باحثون في شركة تطبيقات الذكاء الاصطناعي الأمريكية الرائدة أوبن أيه.آي إلى أنه من غير المرجح إمكانية منع برامج الذكاء الاصطناعي من “التوهم” أو التلفيق.
كما أظهرت دراسات أخرى أنه من الصعب منع نظام الذكاء الاصطناعي من خداع مستخدمه وإيهامه بإنجاز المهمة الموكلة إليه على أكمل وجه بخلاف الحقيقة.
المصدر: DW – وكالات

