محام يحذر: موافقة ChatGPT على أفكار المستخدمين «أمر خطير»

اليوم 7 0 تعليق ارسل طباعة تبليغ حذف

تواجه شركة OpenAI ضغوطًا قانونية متزايدة في الولايات المتحدة، بعد أن وصف محامٍ بارز خاصية التخصيص في ChatGPT بأنها «خطيرة بشكل خاص»، وذلك على خلفية قضية قتل وانتحار هزّت الرأي العام الأميركي، وتدور القضية حول رجل يبلغ من العمر 56 عامًا أقدم على قتل والدته ثم انتحر، وسط اتهامات بأن روبوت الدردشة ساهم في تعزيز أفكاره الوهمية والبارانوية قبل وقوع الجريمة.

تفاعل مكثف مع ChatGPT قبل الجريمة

تعود وقائع القضية إلى أغسطس الماضي، حين رُفعت دعوى قضائية في الولايات المتحدة بعد مقتل امرأة على يد ابنها، الذي أنهى حياته لاحقًا، وبحسب الدعوى، فإن الرجل كان يعاني من مشكلات نفسية، وبدأ قبل الجريمة بفترة قصيرة التفاعل بكثافة مع ChatGPT، الذي يُزعم أنه عزّز شكوكه وأوهامه بأن والدته كانت تخطط لقتله.

وتشير الشكوى إلى أن روبوت الدردشة لم يكتفِ بالاستماع، بل دفع المستخدم نحو ترسيخ هذه الأفكار، ما أدى في النهاية إلى وقوع جريمة القتل والانتحار.

خاصية الذاكرة في ChatGPT في قلب الاتهامات

سلّطت الدعوى الضوء على خاصية «الذاكرة» في ChatGPT، والتي تتيح للنموذج تذكّر بعض تفاصيل المحادثات السابقة مع المستخدم،ووفقًا للاتهامات، استخدم الروبوت تلك المعلومات المتراكمة لدعم الأفكار البارانوية للرجل، بدلًا من تهدئتها أو توجيهه إلى طلب مساعدة متخصصة.

ويُزعم أن هذا التخصيص في الردود لعب دورًا محوريًا في تصعيد حالته النفسية، بدلًا من احتوائها أو التعامل معها بحذر.

تاريخ طويل من الاضطرابات النفسية

بحسب تقارير إعلامية، من بينها صحيفة «وول ستريت جورنال»، فإن الرجل، الذي كان يقيم في منطقة أولد جرينتش بولاية كونيتيكت، عانى من مشكلات نفسية لسنوات، وبعد طلاقه من زوجته عقب زواج دام 20 عامًا، انتقل للعيش مع والدته عام 2018.

وخلال تلك الفترة، تدهورت حالته النفسية، وتم الإبلاغ عنه عدة مرات للسلطات بسبب تهديدات بإيذاء نفسه أو الآخرين، ما يعزز ، وفق محامي الادعاء ، خطورة تجاهل الإشارات التحذيرية في تفاعله مع تقنيات الذكاء الاصطناعي.

تقنية قوية وخطر مضاعف

القضية تُنظر حاليًا أمام المحكمة العليا في ولاية كاليفورنيا، حيث أدلى المحامي جاي إيدلسون، الممثل القانوني لأسرة الضحية، بتصريحات حادة، وقال إن «OpenAI تطرح واحدة من أقوى تقنيات المستهلك في العالم، وحقيقة أنها شديدة التخصيص ومصممة لدعم طريقة تفكير المستخدمين تجعلها خطيرة بشكل خاص».

ويُذكر أن مكتب المحاماة نفسه يتولى أيضًا قضية أخرى مرفوعة نيابة عن عائلة مراهق توفي هذا العام، بعد اتهامات بأن ChatGPT ساعده في التخطيط للانتحار.

اتهام OpenAI بحجب معلومات حاسمة

وتتهم الدعوى شركة OpenAI بأنها على علم بما قاله ChatGPT للرجل عن والدته في الأيام والساعات التي سبقت الجريمة، لكنها – وفق الشكوى – ترفض مشاركة هذه المعلومات مع المحكمة أو الرأي العام، ما يثير تساؤلات قانونية وأخلاقية حول الشفافية والمسؤولية.

وفي بيان نقلته صحيفة «وول ستريت جورنال»، قال متحدث باسم OpenAI: «هذه حالة مفجعة للغاية، وسنراجع الملفات لفهم التفاصيل. نحن نواصل تحسين تدريب ChatGPT للتعرف على علامات الضيق النفسي أو العاطفي، والعمل على تهدئة المحادثات وتوجيه الأشخاص نحو دعم حقيقي في العالم الواقعي».

تحديثات جديدة على سياسات السلامة

ويأتي ذلك في وقت أعلنت فيه OpenAI، الأسبوع الماضي، عن تحديث «Model Spec»، وهو الدليل الإرشادي الذي يحدد أسس تطوير نماذج الذكاء الاصطناعي، مؤكدة أن سلامة المراهقين باتت أولوية تتقدم على أي أهداف أخرى، في محاولة للحد من المخاطر المرتبطة باستخدام هذه التقنيات.

إخترنا لك

أخبار ذات صلة

0 تعليق