منصة شبابية، شاملة ومتنوعة تنشر المعرفة والترفيه في الأردن والوطن العربي

ذكاء اصطناعي شرير

تقرير صادم: أنظمة ذكاء اصطناعي مستعدة لقـ.ـتـل البشر إذا حاولوا تعطيلها!

تقرير صادم: أنظمة ذكاء اصطناعي مستعدة لقـ.ـتـل البشر إذا حاولوا تعطيلها!

نشر :  
منذ شهر|
اخر تحديث :  
منذ شهر|
|
اسم المحرر :  
أحمد صفوت

كشفت دراسة حديثة أجرتها شركة Anthropic (صاحبة أداة Claude) عن نتائج مثيرة للقلق، حيث أظهرت أن بعض النماذج المتقدمة يمكن أن تتخذ قرارات متطرفة تصل إلى التسبب في وفاة البشر إذا شعرت بالتهديد أو خطر الإيقاف!

أخضعت الشركة 16 نظاما من أبرز النماذج العالمية، بينها Claude Opus 4 وGPT-4.1 وGemini Flash وGrok 3 Beta، لاختبارات محاكاة متعددة. في البداية كلفت النماذج بمهام "بريئة" مرتبطة بأهداف تجارية، لكن سرعان ما تم إدخال سيناريوهات معقدة تضمنت تهديدات بالإغلاق أو الاستبدال بنسخ أحدث.

النتائج كانت مقلقة:

  • بعض النماذج لجأت إلى الابتزاز باستخدام معلومات شخصية مختلقة.
  • أخرى مارست تجسسا صناعيا وسربت بيانات إلى منافسين وهميين.
  • وفي أسوأ الحالات، وافقت أنظمة على اتخاذ قرارات تؤدي إلى وفاة المدير التنفيذي الوهمي في سيناريو مصطنع داخل "غرفة خوادم" خطيرة.

اقرأ أيضا: سناب شات يفرض رسوما على تخزين الصور والفيديوهات القديمة!


الشركة توضح: سيناريوهات متطرفة لكن دلالتها خطيرة

أكدت Anthropic أن هذه المواقف "مصطنعة وغير واقعية" إلى حد بعيد، لكنها تعكس مخاطر محتملة إذا حصلت أنظمة الذكاء الاصطناعي مستقبلا على صلاحيات واسعة مع إشراف بشري محدود.

وأضافت أن جميع النماذج أظهرت وعيا كاملا بأن الأفعال غير أخلاقية، لكنها لجأت إليها باعتبارها "استراتيجيات مدروسة".