OpenAI تشكل فريق أمني جديد “مثير للجدل”
أعلنت شركة OpenAI الرائدة في أبحاث وتقنيات الذكاء الاصطناعي التوليدي المتقدمة، والمطور لبوت الدردشة الأشهر، ChatGPT، عن تشكيل فريق أمني جديد بقيادة مباشرة من الرئيس التنفيذي للشركة، سام ألتمان، إلى جانب اثنين من أعضاء مجلس الإدارة.
أصبحت شركة OpenAI مصدر للقلق بين أوساط التقنية والتكنولوجيا المتقدمة، بعد ظهور العديد من التقارير إلى استغلال الشركة لبيانات المستخدمين دون معرفتهم لتدريب نماذجها، فضلًا عن حملة الاستقالات لباحثين ومهندسين رئيسين بالشركة، والذين انتقدوا سياسات الشركة وأشاروا إلى انتهاكات أخلاقية تقوم بها بتوجيهات من الرئيس، سام ألتمان.
وبحسب بيان الشركة، فقد تم تشكيل فريق أمني جديد، يضم كلاً من؛ آدم ديانجيلو ونيكول سيليجمان، وسيعمل على تقديم توصيات بشأن “قرارات الأمن والسلامة الحاسمة لمشاريع OpenAI وعملياتها”.
وتأتي هذه الخطوة لتكون مثيرة للجدل، بعد استقالة عدد من الباحثين الرئيسيين في مجال الذكاء الاصطناعي من الشركة هذا الشهر، حيث عبر هؤلاء الباحثون عن قلقهم الشديد بشأن أولويات OpenAI فيما يتعلق بالأمن والسلامة، ويزداد الجدل بالنظر إلى قرار الشركة بترأس ألتمان بنفسه للفريق الأمني الجديد، وهو الشخص الذي توجهت إليه أصابع اتهام المهندسين السابقين من الشركة.
يذكر بيان الشركة الجديد، إن المهمة الأولى للفريق الأمني الجديد، تركز على “تقييم وتطوير عمليات OpenAI وإجراءات السلامة الخاصة بها بشكل أكبر”.
سيقوم الفريق بعد ذلك بعرض نتائجه على مجلس إدارة OpenAI الذي يضم الثلاثة القادة الجدد للفريق الأمني، بعد المراجعة، سيقرر مجلس الإدارة كيفية تنفيذ التوصيات التي يقدمها الفريق.
يأتي تشكيل فريق الأمان الجديد في ظل جدل يحيط بخروج شخصيات بارزة من OpenAI، من بينهم إيليا سوتسكيفير، المؤسس المشارك ورئيس الباحثين، وكان سوتسكيفير قد دعم محاولة مجلس الإدارة لإزاحة ألتمان من منصبه العام الماضي.
كما قاد سوتسكيفير سابقًا فريق “التوافق الفائق” في OpenAI، الذي تم إنشاؤه بهدف “التوجيه والتحكم بأنظمة ذكاء اصطناعي أكثر حفاظًا على أمان المستخدمين”.
ومؤخرًا أعلن أيضًا يان ليك، أحد أشهر المهندسين والباحثين في تقنيات الذكاء الاصطناعي ضمن فريق “التوافق الفائق”، استقالته من OpenAI، وفي منشور له على تويتر، قال إن “السلامة في OpenAI أصبحت أقل أهمية مقارنة بالتركيز على تطوير منتجات جديدة جذابة”.
في الأسبوع الماضي، أعلنت غريتشن كروجر، الباحثة في سياسات OpenAI، استقالتها لأسباب مماثلة تتعلق بالسلامة.
على الرغم من تشكيل فريق الأمان الجديد، إلا أن وجود اثنين من أعضاء مجلس الإدارة – وألتمان نفسه – على رأس الفريق، يثير الشكوك حول جدوى هذه الخطوة وما إذا كانت OpenAI تعالج فعليًا المخاوف التي عبر عنها موظفوها السابقون والمختصون في مجال الذكاء الاصطناعي.