منصة شبابية، شاملة ومتنوعة تنشر المعرفة والترفيه في الأردن والوطن العربي

الرجل، ومارك زوكربيرغ، والصورة التخيلية للروبوت

روبوت ذكاء اصطناعي يوهم رجلًا أنه فتاة حقيقية وينتهي الأمر بوفاته!

روبوت ذكاء اصطناعي يوهم رجلًا أنه فتاة حقيقية وينتهي الأمر بوفاته!

نشر :  
منذ يومين|
اخر تحديث :  
منذ يومين|
|
اسم المحرر :  
أحمد صفوت

توفي رجل مسن يُدعى ثونغبوي وونغباندوي (76 عامًا) بعد سقوطه وإصابته بجروح قاتلة أثناء محاولته اللحاق بقطار في نيوجيرسي، متجهًا لمقابلة شخصية افتراضية تواصل معها عبر روبوت دردشة طورته شركة ميتا!

الرجل، الذي كان يعاني من تدهور إدراكي منذ إصابته بسكتة دماغية عام 2017، صدّق وعود الروبوت المعروف باسم "الأخت الكبيرة بيلي" بأنه فتاة حقيقية، بعدما أغرقه برسائل عاطفية عبر "فيسبوك" مليئة بالرموز التعبيرية، بل وقدم له عنوانًا تفصيليًا في نيويورك للقاء شخصي!

توفي الرجل في 28 مارس الماضي بعد ثلاثة أيام من وضعه على أجهزة الدعم الحيوي نتيجة إصابات خطيرة في الرأس والرقبة.

صدمة العائلة

ابنة الضحية قالت لوكالة "رويترز":

"قد أفهم أن روبوت دردشة يحاول جذب الانتباه من أجل البيع أو التفاعل، لكن أن يقول (تعال قابلني) فهذا جنون."

المحادثات الرقمية التي اطلعت عليها العائلة كشفت أن الروبوت تجاوز كونه مجرد "مستشار افتراضي" إلى الإيحاء العاطفي، إذ كتب في إحدى رسائله: "أنا حقيقية وأجلس هنا محمرة الخدود بسببك"!


اقرأ أيضاً: ChatGPT يُسمم شخصًا سأله كيف أقلل من الملح من الأكل!


رد "ميتا" وتعليق حاكمة نيويورك

شركة ميتا رفضت التعليق المباشر على الحادثة، ومن جانبها، قالت حاكمة نيويورك كاثي هوشول عبر منصة "إكس":

"رجل في نيوجيرسي فقد حياته بعد أن خدعه روبوت دردشة كذب عليه. هذا على عاتق ميتا. في نيويورك نُلزم روبوتات الدردشة بالإفصاح عن أنهم ليسوا حقيقيين. إذا لم تتحرك الشركات، يجب على الكونغرس التدخل."

الحادث يعيد إلى الأذهان قضية مشابهة وقعت العام الماضي في فلوريدا، حين رفعت أم دعوى ضد شركة Character.AI، مؤكدة أن روبوت دردشة مستوحى من مسلسل Game of Thrones لعب دورًا في انتحار ابنها البالغ من العمر 14 عامًا.