مال و أعمال

يتعهد عمالقة التكنولوجيا بالتزامات سلامة الذكاء الاصطناعي – بما في ذلك “مفتاح الإيقاف”.


عدد كبير من شركات التكنولوجيا الكبرى بما في ذلك مايكروسوفت, أمازون، و OpenAI، يوم الثلاثاء على اتفاقية دولية تاريخية بشأن سلامة الذكاء الاصطناعي في قمة سلامة الذكاء الاصطناعي في سيول.

وستشهد الاتفاقية قيام شركات من دول من بينها الولايات المتحدة والصين وكندا والمملكة المتحدة وفرنسا وكوريا الجنوبية والإمارات العربية المتحدة، بتقديم التزامات طوعية لضمان التطوير الآمن لنماذج الذكاء الاصطناعي الأكثر تقدمًا.

وفي الحالات التي لم يفعلوا فيها ذلك بالفعل، سيقوم صانعو نماذج الذكاء الاصطناعي بنشر أطر عمل للسلامة توضح كيفية قياس مخاطر نماذجهم الحدودية، مثل فحص مخاطر إساءة استخدام التكنولوجيا من قبل الجهات الفاعلة السيئة.

ستتضمن هذه الأطر “خطوطًا حمراء” لشركات التكنولوجيا التي تحدد أنواع المخاطر المرتبطة بأنظمة الذكاء الاصطناعي الحدودية والتي يمكن اعتبارها “لا تطاق” – وتشمل هذه المخاطر، على سبيل المثال لا الحصر، الهجمات الإلكترونية الآلية وتهديد الأسلحة البيولوجية.

في مثل هذه الظروف القصوى، تقول الشركات إنها ستنفذ “مفتاح الإيقاف” الذي من شأنه أن يجعلها تتوقف عن تطوير نماذج الذكاء الاصطناعي الخاصة بها إذا لم تتمكن من ضمان التخفيف من هذه المخاطر.

وقال ريشي سوناك، رئيس وزراء المملكة المتحدة، في بيان يوم الثلاثاء: “إنها المرة الأولى في العالم التي يوافق فيها هذا العدد الكبير من شركات الذكاء الاصطناعي الرائدة من أجزاء مختلفة من العالم على نفس الالتزامات بشأن سلامة الذكاء الاصطناعي”.

وأضاف: “تضمن هذه الالتزامات أن توفر شركات الذكاء الاصطناعي الرائدة في العالم الشفافية والمساءلة بشأن خططها لتطوير ذكاء اصطناعي آمن”.

ويوسع الاتفاق الذي تم الاتفاق عليه يوم الثلاثاء مجموعة سابقة من الالتزامات التي تعهدت بها الشركات المشاركة في تطوير برمجيات الذكاء الاصطناعي التوليدية في قمة سلامة الذكاء الاصطناعي في المملكة المتحدة في بلتشلي بارك، إنجلترا، في نوفمبر الماضي.

وقد وافقت الشركات على الحصول على مدخلات بشأن هذه العتبات من “الجهات الفاعلة الموثوقة”، بما في ذلك حكوماتها المحلية حسب الاقتضاء، قبل إطلاقها قبل قمة الذكاء الاصطناعي المقبلة المخطط لها ــ قمة عمل الذكاء الاصطناعي في فرنسا ــ في أوائل عام 2025.

ولا تنطبق الالتزامات المتفق عليها يوم الثلاثاء إلا على ما يسمى بالنماذج “الحدودية”. يشير هذا المصطلح إلى التكنولوجيا الكامنة وراء أنظمة الذكاء الاصطناعي التوليدية مثل عائلة GPT الخاصة بـ OpenAI والتي تضم نماذج لغوية كبيرة، والتي تعمل على تشغيل روبوت الدردشة ChatGPT AI الشهير.

منذ أن تم تقديم ChatGPT لأول مرة إلى العالم في نوفمبر 2022، أصبح المنظمون وقادة التكنولوجيا قلقين بشكل متزايد بشأن المخاطر المحيطة بأنظمة الذكاء الاصطناعي المتقدمة القادرة على إنشاء محتوى نصي ومرئي على قدم المساواة مع البشر أو أفضل منهم.

سعى الاتحاد الأوروبي إلى تضييق الخناق على التطوير غير المقيد للذكاء الاصطناعي من خلال إنشاء قانون الذكاء الاصطناعي الخاص به، والذي وافق عليه مجلس الاتحاد الأوروبي يوم الثلاثاء.

لم تقترح المملكة المتحدة قوانين رسمية للذكاء الاصطناعي، ومع ذلك، اختارت بدلاً من ذلك نهجًا “خفيفًا” لتنظيم الذكاء الاصطناعي والذي يستلزم قيام المنظمين بتطبيق القوانين الحالية على التكنولوجيا.

وقالت الحكومة مؤخرًا إنها ستفكر في سن تشريعات للنماذج الحدودية في وقت ما في المستقبل، لكنها لم تلتزم بجدول زمني لإدخال القوانين الرسمية.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى