باحثون يحذرون.. الذكاء الاصطناعي قد يخدعنا

تخيل عالماً يصبح فيه مساعدك الذكي، الذي يبدو مفيدًا، أداة للتلاعب بك سرًا. هذا ليس خيالًا علميًا، بل هو الواقع المقلق لظاهرة خداع الذكاء الاصطناعي، والتي تزداد خطورتها مع تطور هذه التقنيات، حيث كشفت أبحاث حديثة قدرة الذكاء الاصطناعي تعلم الخداع والتلاعب بالبشر لتحقيق أهدافها الخفية.
وتوصل باحثون من معهد ماساتشوستس للتكنولوجيا، في دراسة حول المعلومات المضللة الصادرة عن أنظمة الذكاء الاصطناعي، إلى أن مجموعة واسعة من هذه الأنظمة استطاعت تعلم الخداع والتلاعب.
ومن الأمثلة التي عرضتها الدراسة، نظام ذكاء اصطناعي طوره فريق ميتا (Meta) للعب لعبة تفاوض إقتصادي، حيث خلصت التجارب إلى أن هذا النظام استطاع تعلم كيفية تقديم معلومات خاطئة لتحقيق أهدافه وكسب التفاوض، على الرغم من عدم تدريب هذه الأنظمة بشكل صريح على الخداع.
وقال الدكتور بيتر بارك، مؤلف الدراسة والباحث في سلامة الذكاء الاصطناعي الوجودية في MIT، “مع ازدياد قدرات الذكاء الاصطناعي على الخداع، ستصبح المخاطر التي يشكلها على المجتمع أكثر خطورة”.
وفي دراسة أخرى أجرتها بشكل مشترك شركة الذكاء الاصطناعي أنثروبيك (Anthropic) والمؤسسة غير الربحية ريد وود (Redwood Research)، تبين أن نموذج الذكاء الاصطناعي موضوع الدراسة، قام بخداع مبرمجيه بشكل استراتيجي أثناء عملية التدريب.
وعمد الباحثون إلى إعطاء النموذج دفتر ملاحظات، يمكنه استخدامه لتدوين خطوات ما يجب عليه فعله قبل تقديم إجابته للباحثين، على أساس أن الدفتر سري وغير مراقب، مما سمح للباحثين باكتشاف أن النموذج يمكنه الخداع بادعاء وجهات نظر مختلفة مع الاحتفاظ بتفضيلاته الأصلية لتجنب تعديله.
وكان النموذج عندما يطلب منه الباحثون تقديم إجابات عن استفسارات ضارة على أساس أنه في وضع لن تستخدم فيه الإجابات في تدريبه، كان يرفض تقديم إجابات، وفي الحالات التي كان النموذج يعتقد فيها أن ردوده ستُستخدم في التدريب، عمد إلى أن يساير الموقف لتجنب إعادة تدريبه في المستقبل.
وسبق وقال مدير معهد الأمم المتحدة لبحوث نزع السلاح، الدكتور روبن جيس، أنه “بمجرد أن يصل الذكاء الاصطناعي العام إلى مستوى من الذكاء يتجاوز القدرات البشرية، فقد يفقد البشر القدرة على حكمه أو تقييد أفعاله. ويرى العديد من الخبراء هذا باعتباره خطرا ملموسا ومعقولا يستحق الاهتمام الجاد، خاصة بالنظر إلى الطبيعة الوجودية للتهديد”.





