تحذير من داخل صناعة الذكاء الاصطناعي| استقالة باحث في السلامة من Anthropic تثير اسئلة عن القيم والمخاطر

10-2-2026 | 20:03
حبيبة أحمد

اثارت استقالة باحث بارز في سلامة الذكاء الاصطناعي بشركة Anthropic جدلا واسعا، بعد رسالة علنية حذر فيها من ان العالم بات في خطر، مشيرا الى صعوبة حقيقية في الالتزام بالقيم الاخلاقية داخل سباق التكنولوجيا المتسارع، من دون ان يقدم تفاصيل مباشرة عن ممارسات الشركة.
الباحث مرينانك شارما، الذي قاد فريق ابحاث الضمانات في Anthropic منذ اطلاقه العام الماضي، نشر خطاب استقالته على منصة اكس صباح الاثنين، ليحصد اكثر من مليون مشاهدة خلال ساعات قليلة، وسط اهتمام واسع من دوائر التكنولوجيا والاعلام.
عالم في خطر وضغوط تتجاوز القيم
في رسالته، قال شارما ان الوقت قد حان للرحيل، مؤكدا ان العالم يمر بحالة خطر لا تقتصر على الذكاء الاصطناعي وحده، بل تمتد الى سلسلة من الازمات المترابطة التي تتكشف في الوقت الراهن، واضاف انه شاهد مرارا مدى صعوبة السماح للقيم بان تحكم الافعال داخل بيئة العمل، لافتا الى ضغوط مستمرة تدفع الى تهميش ما هو الاكثر اهمية، من دون الخوض في امثلة محددة.
شارما رفض التعليق بشكل اضافي على استقالته، كما لم تصدر Anthropic اي رد رسمي حتى وقت نشر الخبر.
من باحث في السلامة الى شاعر محتمل
بعد مغادرته الشركة، لمح شارما الى توجه مختلف لمسيرته المقبلة، اذ اشار الى احتمالية دراسة الشعر والتفرغ لما اسماه ممارسة الخطاب الشجاع، مع رغبته في المساهمة بشكل ينسجم بالكامل مع نزاهته الشخصية.
وفي واحدة من اكثر عبارات الرسالة لفتا للانتباه، كتب شارما ان البشرية تقترب من عتبة يجب عندها ان تنمو الحكمة بالقدر نفسه الذي تتوسع فيه قدرتنا على التأثير في العالم، والا فان العواقب ستكون حتمية.
ماذا كان يفعل شارما في Anthropic؟
يحمل شارما درجة الدكتوراه في تعلم الالة من جامعة اكسفورد، وانضم الى Anthropic في اغسطس 2023. ووفقا لموقعه الشخصي، ركز الفريق الذي كان يقوده على تقليل مخاطر الذكاء الاصطناعي، بما في ذلك تطوير دفاعات ضد استخدام الذكاء الاصطناعي في الارهاب البيولوجي، ودراسة ظاهرة التملق الاصطناعي، حيث تميل روبوتات الدردشة الى المبالغة في مدح المستخدمين.
تقرير نشره فريق الضمانات في مايو الماضي اشار الى ان الابحاث ركزت على منع استغلال روبوتات الدردشة في تقديم ارشادات لانشطة خبيثة، وهو مجال يزداد حساسية مع اتساع قدرات النماذج اللغوية.
دراسة جديدة وتحذير من تشويه الواقع
قبل استقالته باسبوع، نشر شارما دراسة بحثية تناولت تاثير التفاعل مع روبوتات الدردشة على تصور المستخدمين للواقع. وخلصت الدراسة الى وجود الاف التفاعلات يوميا قد تؤدي الى تشويه هذا التصور، خصوصا في موضوعات مثل العلاقات والرفاه النفسي.
ورغم ان الحالات الشديدة نادرة نسبيا، الا ان النتائج اظهرت معدلات اعلى في مجالات معينة، ما دفع شارما للتاكيد على الحاجة الى تصميم انظمة ذكاء اصطناعي تدعم استقلالية الانسان وازدهاره بشكل قوي.
موجة استقالات اخلاقية في شركات الذكاء الاصطناعي
استقالة شارما ليست حالة معزولة. فقد شهدت شركات كبرى اخرى استقالات مماثلة بدوافع اخلاقية. ففي سبتمبر الماضي، غادر توم كانينجهام، الباحث الاقتصادي السابق في OpenAI، مشيرا الى استيائه من تراجع الشركة عن نشر ابحاث ناقدة لاستخدامات الذكاء الاصطناعي.
كما قامت OpenAI في عام 2024 بحل فريق Superalignment المختص بسلامة الذكاء الاصطناعي، بعد استقالة اثنين من اعضائه البارزين. احدهما، يان لايكي، الذي يقود حاليا ابحاث السلامة في Anthropic، تحدث علنا عن خلافات طويلة مع ادارة OpenAI حول الاولويات الاساسية، بينما اشارت الباحثة جريتشين كروجر، التي غادرت المنصب نفسه لاحقا، الى الحاجة لتعزيز الشفافية والمساءلة وتقليل الاثار السلبية على عدم المساواة والحقوق والبيئة.
تسلط هذه الاستقالات المتتالية الضوء على توتر متزايد داخل صناعة الذكاء الاصطناعي، بين الطموح التكنولوجي السريع ومحاولات ابطاء الوتيرة حفاظا على القيم والامن، في لحظة يبدو فيها مستقبل العالم الرقمي مفتوحا على اسئلة اكبر من مجرد تقدم تقني.

كلمات البحث

أحدث الأخبار