مال و أعمال

تقوم OpenAI بإنشاء فريق إشراف جديد، وتبدأ في تدريب النموذج التالي


الرئيس التنفيذي لشركة OpenAI سام ألتمان يتحدث خلال مؤتمر Microsoft Build في مقر Microsoft في ريدموند، واشنطن، في 21 مايو 2024.

جيسون ريدموند | فرانس برس | صور جيتي

قالت OpenAI يوم الثلاثاء إنها أنشأت لجنة للسلامة والأمن بقيادة كبار المسؤولين التنفيذيين، بعد حل مجلس الرقابة السابق في منتصف مايو.

وقالت الشركة إن اللجنة الجديدة ستكون مسؤولة عن تقديم توصيات إلى مجلس إدارة OpenAI “بقرارات السلامة والأمن الحاسمة لمشاريع وعمليات OpenAI”.

وتأتي أخبار اللجنة الجديدة في الوقت الذي أعلن فيه مطور المساعد الافتراضي ChatGPT أنه بدأ تدريب “النموذج الحدودي التالي”.

وقالت الشركة في منشور على مدونتها إنها تتوقع “أن تنقلنا الأنظمة الناتجة إلى المستوى التالي من القدرات في طريقنا نحو الذكاء الاصطناعي العام”، أو الذكاء العام الاصطناعي، وهو نوع من الذكاء الاصطناعي الذي لا يقل ذكاءً أو أكثر ذكاءً عن البشر.

يأتي تشكيل فريق إشراف جديد بعد أن قامت OpenAI بحل فريق سابق كان يركز على المخاطر طويلة المدى للذكاء الاصطناعي. قبل ذلك، أعلن قائدا الفريق، المؤسس المشارك لـ OpenAI، إيليا سوتسكيفر والباحث الرئيسي جان ليك، عن مغادرتهما الشركة الناشئة المدعومة من مايكروسوفت.

كانت سلامة الذكاء الاصطناعي في طليعة نقاش أكبر، حيث أصبحت النماذج الضخمة التي تدعم تطبيقات مثل ChatGPT أكثر تقدمًا. يتساءل مطورو منتجات الذكاء الاصطناعي أيضًا عن موعد وصول الذكاء الاصطناعي العام وما هي المخاطر التي ستصاحبه.

بريت تايلور، وآدم دانجيلو، ونيكول سيليجمان، وجميعهم أعضاء في مجلس إدارة OpenAI، هم الآن أعضاء في لجنة السلامة الجديدة إلى جانب ألتمان.

كتب Leike هذا الشهر أن “ثقافة وعمليات السلامة في OpenAI قد تراجعت أمام المنتجات اللامعة”. ردًا على رحيله، قال ألتمان على منصة التواصل الاجتماعي X إنه حزين لرؤية رحيل ليك، مضيفًا أن OpenAI “لديها الكثير لتفعله”.

على مدار التسعين يومًا القادمة، ستقوم مجموعة السلامة بتقييم عمليات OpenAI والضمانات ومشاركة توصياتها مع مجلس إدارة الشركة. ستقدم OpenAI تحديثًا للتوصيات التي اعتمدتها في وقت لاحق.

– ساهم هايدن فيلد من CNBC في هذا التقرير.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى