مال و أعمال

يبدأ المنظمون الصينيون في اختبار نماذج GenAI على القيم الاشتراكية


الرمز الرقمي والعلم الصيني يمثلان الأمن السيبراني في الصين.

انطون بطرس | لحظة | صور جيتي

وتخضع شركات الذكاء الاصطناعي في الصين لمراجعة حكومية لنماذجها اللغوية الكبيرة، بهدف ضمان أنها “تجسد القيم الاشتراكية الأساسية”، وفقًا لتقرير صادر عن صحيفة فايننشال تايمز.

يتم تنفيذ المراجعة من قبل إدارة الفضاء السيبراني الصينية (CAC)، وهي الجهة التنظيمية الرئيسية للإنترنت في الحكومة، وسوف تغطي اللاعبين عبر الطيف، من عمالقة التكنولوجيا مثل ByteDance و علي بابا للشركات الناشئة الصغيرة

وقالت صحيفة فايننشال تايمز إن نماذج الذكاء الاصطناعي سيتم اختبارها من قبل مسؤولي CAC المحليين لإجاباتهم على مجموعة متنوعة من الأسئلة، يرتبط الكثير منها بموضوعات حساسة سياسيا والرئيس الصيني شي جين بينغ. سيتم أيضًا مراجعة بيانات التدريب وعمليات السلامة الخاصة بالنموذج.

قال مصدر مجهول من شركة ذكاء اصطناعي مقرها مدينة هانغتشو، تحدث مع “فاينانشيال تايمز” إن نموذجهم لم يجتاز الجولة الأولى من الاختبار لأسباب غير واضحة. وقالوا في التقرير إنهم نجحوا للمرة الثانية فقط بعد أشهر من “التخمين والتعديل”.

توضح الجهود الأخيرة التي بذلتها CAC كيف سارت بكين على حبل مشدود بين اللحاق بالولايات المتحدة في GenAI مع مراقبة تطور التكنولوجيا عن كثب، مما يضمن التزام المحتوى الناتج عن الذكاء الاصطناعي بسياسات الرقابة الصارمة على الإنترنت.

وكانت البلاد من بين أوائل الدول التي وضعت اللمسات الأخيرة على القواعد التي تحكم الذكاء الاصطناعي التوليدي في العام الماضي، بما في ذلك شرط التزام خدمات الذكاء الاصطناعي بـ “القيم الأساسية للاشتراكية” وعدم إنشاء محتوى “غير قانوني”.

إن تلبية سياسات الرقابة تتطلب “تصفية أمنية”، وقد أصبحت معقدة لأن حاملي الماجستير في القانون الصيني لا يزالون مدربين على قدر كبير من محتوى اللغة الإنجليزية، حسبما قال العديد من المهندسين والمطلعين على الصناعة لصحيفة فايننشال تايمز.

وفقًا للتقرير، تتم التصفية عن طريق إزالة “المعلومات الإشكالية” من بيانات تدريب نموذج الذكاء الاصطناعي ثم إنشاء قاعدة بيانات للكلمات والعبارات الحساسة.

وبحسب ما ورد أدت اللوائح إلى رفض برامج الدردشة الأكثر شعبية في البلاد في كثير من الأحيان الإجابة على الأسئلة المتعلقة بموضوعات حساسة مثل احتجاجات ميدان تيانانمن عام 1989.

ومع ذلك، أثناء اختبار CAC، هناك حدود لعدد الأسئلة التي يمكن أن يرفضها حاملو شهادة LLM بشكل مباشر، لذلك يجب أن تكون النماذج قادرة على توليد “إجابات صحيحة سياسيًا” للأسئلة الحساسة.

قال أحد خبراء الذكاء الاصطناعي الذي يعمل على برنامج الدردشة الآلي في الصين لصحيفة فايننشال تايمز إنه من الصعب منع حاملي شهادة الماجستير في إدارة الأعمال من توليد كل المحتوى الذي يحتمل أن يكون ضارا، لذا فهم بدلا من ذلك يبنون طبقة إضافية على النظام تحل محل الإجابات الإشكالية في الوقت الفعلي.

إن اللوائح التنظيمية، فضلا عن العقوبات الأميركية التي قيدت الوصول إلى الرقائق المستخدمة لتدريب حاملي شهادة الماجستير، جعلت من الصعب على الشركات الصينية أن تطلق خدماتها الشبيهة بـ ChatGPT. ومع ذلك، تهيمن الصين على السباق العالمي في براءات اختراع الذكاء الاصطناعي التوليدية.

اقرأ التقرير الكامل من FT

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى