وإليك ما يعنيه ذلك بالنسبة لشركات التكنولوجيا الأمريكية
يدخل قانون الذكاء الاصطناعي التاريخي للاتحاد الأوروبي حيز التنفيذ رسميًا يوم الخميس، وهو ما يعني تغييرات صعبة لعمالقة التكنولوجيا الأمريكيين.
قانون الذكاء الاصطناعي، وهو قاعدة تاريخية تهدف إلى التحكم في الطريقة التي تقوم بها الشركات بتطوير واستخدام وتطبيق الذكاء الاصطناعي، حصل على الموافقة النهائية من قبل الدول الأعضاء في الاتحاد الأوروبي والمشرعين والمفوضية الأوروبية – الهيئة التنفيذية للاتحاد الأوروبي – في مايو. .
لقد استعرضت قناة CNBC كل ما تحتاج لمعرفته حول قانون الذكاء الاصطناعي – وكيف سيؤثر على أكبر شركات التكنولوجيا العالمية.
ما هو قانون الذكاء الاصطناعي؟
قانون الذكاء الاصطناعي هو جزء من تشريعات الاتحاد الأوروبي التي تحكم الذكاء الاصطناعي. ويهدف القانون الذي اقترحته المفوضية الأوروبية لأول مرة في عام 2020 إلى معالجة الآثار السلبية للذكاء الاصطناعي.
وسوف يستهدف في المقام الأول شركات التكنولوجيا الأمريكية الكبيرة، والتي تعد حاليًا منشئي ومطوري أنظمة الذكاء الاصطناعي الأكثر تقدمًا.
ومع ذلك، فإن الكثير من الشركات الأخرى ستخضع لنطاق القواعد، حتى الشركات غير التكنولوجية.
تحدد اللائحة إطارًا تنظيميًا شاملاً ومنسقًا للذكاء الاصطناعي في جميع أنحاء الاتحاد الأوروبي، مع تطبيق نهج قائم على المخاطر لتنظيم التكنولوجيا.
وقال تانغي فان أوفرسترايتن، رئيس شركة المحاماة لينكلاترز للتكنولوجيا والإعلام والممارسات التكنولوجية في بروكسل، إن قانون الاتحاد الأوروبي للذكاء الاصطناعي هو “الأول من نوعه في العالم”.
“من المحتمل أن يؤثر ذلك على العديد من الشركات، خاصة تلك التي تعمل على تطوير أنظمة الذكاء الاصطناعي ولكن أيضًا تلك التي تنشرها أو تستخدمها فقط في ظروف معينة.”
ويطبق التشريع نهجًا قائمًا على المخاطر لتنظيم الذكاء الاصطناعي، مما يعني أن التطبيقات المختلفة للتكنولوجيا يتم تنظيمها بشكل مختلف اعتمادًا على مستوى المخاطر التي تشكلها على المجتمع.
بالنسبة لتطبيقات الذكاء الاصطناعي التي تعتبر “عالية المخاطر”، على سبيل المثال، سيتم فرض التزامات صارمة بموجب قانون الذكاء الاصطناعي. وتشمل هذه الالتزامات تقييم المخاطر وأنظمة التخفيف المناسبة، ومجموعات بيانات التدريب عالية الجودة لتقليل مخاطر التحيز، والتسجيل الروتيني للنشاط، والمشاركة الإلزامية للوثائق التفصيلية حول النماذج مع السلطات لتقييم الامتثال.
تشمل أمثلة أنظمة الذكاء الاصطناعي عالية المخاطر المركبات ذاتية القيادة، والأجهزة الطبية، وأنظمة اتخاذ القرار بشأن القروض، والتسجيل التعليمي، وأنظمة تحديد الهوية البيومترية عن بعد.
ويفرض القانون أيضًا حظرًا شاملاً على أي تطبيقات للذكاء الاصطناعي تعتبر “غير مقبولة” من حيث مستوى خطورتها.
وتشمل تطبيقات الذكاء الاصطناعي ذات المخاطر غير المقبولة أنظمة “التسجيل الاجتماعي” التي تصنف المواطنين على أساس تجميع وتحليل بياناتهم، والشرطة التنبؤية، واستخدام تكنولوجيا التعرف على المشاعر في مكان العمل أو المدارس.
ماذا يعني ذلك بالنسبة لشركات التكنولوجيا الأمريكية؟
عمالقة الولايات المتحدة مثل مايكروسوفت, جوجل, أمازون, تفاحة، و ميتا لقد عقدوا شراكات قوية مع واستثمروا مليارات الدولارات في الشركات التي يعتقدون أنها يمكن أن تقود مجال الذكاء الاصطناعي وسط جنون عالمي حول التكنولوجيا.
تعد المنصات السحابية مثل Microsoft Azure وAmazon Web Services وGoogle Cloud أيضًا أساسية لدعم تطوير الذكاء الاصطناعي، نظرًا للبنية التحتية الحاسوبية الضخمة اللازمة لتدريب نماذج الذكاء الاصطناعي وتشغيلها.
وفي هذا الصدد، ستكون شركات التكنولوجيا الكبرى بلا شك من بين الأسماء الأكثر استهدافًا بموجب القواعد الجديدة.
“لقانون الذكاء الاصطناعي آثار تتجاوز نطاق الاتحاد الأوروبي. فهو ينطبق على أي منظمة لها أي عملية أو تأثير في الاتحاد الأوروبي، مما يعني أن قانون الذكاء الاصطناعي من المرجح أن ينطبق عليك بغض النظر عن مكان تواجدك،” تشارلي طومسون، كبير مسؤولي الذكاء الاصطناعي صرح نائب رئيس أوروبا والشرق الأوسط وأفريقيا وأمريكا اللاتينية لشركة برمجيات المؤسسات Appian لـ CNBC عبر البريد الإلكتروني.
وأضاف طومسون: “سيؤدي هذا إلى مزيد من التدقيق على عمالقة التكنولوجيا عندما يتعلق الأمر بعملياتهم في سوق الاتحاد الأوروبي واستخدامهم لبيانات مواطني الاتحاد الأوروبي”.
لقد قامت Meta بالفعل بتقييد توفر نموذج الذكاء الاصطناعي الخاص بها في أوروبا بسبب مخاوف تنظيمية – على الرغم من أن هذه الخطوة لم تكن بالضرورة بسبب قانون الاتحاد الأوروبي للذكاء الاصطناعي.
قال مالك فيسبوك في وقت سابق من هذا الشهر إنه لن يجعل نماذج LLaMa الخاصة به متاحة في الاتحاد الأوروبي، مشيرًا إلى عدم اليقين بشأن ما إذا كانت تتوافق مع اللائحة العامة لحماية البيانات للاتحاد الأوروبي، أو الناتج المحلي الإجمالي.
وقد أُمرت الشركة سابقًا بالتوقف عن تدريب عارضاتها على المنشورات من Facebook وInstagram في الاتحاد الأوروبي بسبب مخاوف من أنها قد تنتهك اللائحة العامة لحماية البيانات.
كيف يتم علاج الذكاء الاصطناعي التوليدي؟
تم تصنيف الذكاء الاصطناعي التوليدي في قانون الاتحاد الأوروبي للذكاء الاصطناعي كمثال على الذكاء الاصطناعي “للأغراض العامة”.
تشير هذه التسمية إلى الأدوات التي تهدف إلى أن تكون قادرة على إنجاز مجموعة واسعة من المهام على مستوى مماثل – إن لم يكن أفضل من – الإنسان.
تتضمن نماذج الذكاء الاصطناعي للأغراض العامة، على سبيل المثال لا الحصر، GPT من OpenAI، وGemini من Google، وAnthropic’s Claude.
بالنسبة لهذه الأنظمة، يفرض قانون الذكاء الاصطناعي متطلبات صارمة مثل احترام قانون حقوق الطبع والنشر في الاتحاد الأوروبي، وإصدار إفصاحات شفافة حول كيفية تدريب النماذج، وإجراء اختبارات روتينية وحماية كافية للأمن السيبراني.
ومع ذلك، لا يتم التعامل مع جميع نماذج الذكاء الاصطناعي على قدم المساواة. قال مطورو الذكاء الاصطناعي إن الاتحاد الأوروبي بحاجة إلى ضمان عدم تنظيم النماذج مفتوحة المصدر – والتي تكون مجانية للجمهور ويمكن استخدامها لبناء تطبيقات الذكاء الاصطناعي المخصصة – بشكل صارم.
تتضمن أمثلة النماذج مفتوحة المصدر LLaMa من Meta، وStable Diffusion من Stability AI، وMistral’s 7B.
لقد وضع الاتحاد الأوروبي بعض الاستثناءات لنماذج الذكاء الاصطناعي التوليدية مفتوحة المصدر.
ولكن للتأهل للإعفاء من القواعد، يجب على مقدمي الخدمات مفتوحة المصدر جعل معلماتهم، بما في ذلك الأوزان وبنية النموذج واستخدام النموذج، متاحة للجمهور، وتمكين “الوصول إلى النموذج واستخدامه وتعديله وتوزيعه”.
لن يتم احتساب النماذج مفتوحة المصدر التي تشكل مخاطر “نظامية” للإعفاء، وفقًا لقانون الذكاء الاصطناعي.
وقال فان أوفرسترايتن إنه “من الضروري إجراء تقييم دقيق عند تفعيل القواعد ودور أصحاب المصلحة المعنيين”.
ماذا يحدث إذا خرقت الشركة القواعد؟
ويمكن فرض غرامات على الشركات التي تنتهك قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي، تتراوح بين 35 مليون يورو (41 مليون دولار) أو 7% من إيراداتها السنوية العالمية ــ أيهما أعلى ــ إلى 7.5 مليون يورو أو 1.5% من إيراداتها السنوية العالمية.
ويعتمد حجم العقوبات على المخالفة وحجم الشركة التي سيتم تغريمها.
وهذا أعلى من الغرامات المحتملة بموجب اللائحة العامة لحماية البيانات (GDPR)، وهو قانون الخصوصية الرقمية الصارم في أوروبا. وتواجه الشركات غرامات تصل إلى 20 مليون يورو أو 4% من حجم الأعمال العالمي السنوي بسبب انتهاكات اللائحة العامة لحماية البيانات.
إن الإشراف على جميع نماذج الذكاء الاصطناعي التي تقع ضمن نطاق القانون – بما في ذلك أنظمة الذكاء الاصطناعي ذات الأغراض العامة – سيندرج ضمن مكتب الذكاء الاصطناعي الأوروبي، وهو هيئة تنظيمية أنشأتها المفوضية في فبراير 2024.
وقال جميل جيفا، الرئيس العالمي لإدارة الأصول في شركة Linedata للتكنولوجيا المالية، لشبكة CNBC إن الاتحاد الأوروبي “يدرك أنه بحاجة إلى فرض غرامات كبيرة على الشركات المخالفة إذا أرادوا أن يكون لللوائح تأثير”.
وأضاف جيفا أنه على غرار الطريقة التي أظهر بها القانون العام لحماية البيانات الطريقة التي يمكن للاتحاد الأوروبي من خلالها “استعراض نفوذه التنظيمي لفرض أفضل ممارسات خصوصية البيانات” على المستوى العالمي، من خلال قانون الذكاء الاصطناعي، يحاول الاتحاد مرة أخرى تكرار ذلك، ولكن بالنسبة للذكاء الاصطناعي.
ومع ذلك، تجدر الإشارة إلى أنه على الرغم من دخول قانون الذكاء الاصطناعي حيز التنفيذ أخيرًا، فإن معظم الأحكام المنصوص عليها في القانون لن تدخل حيز التنفيذ فعليًا حتى عام 2026 على الأقل.
لن تبدأ القيود المفروضة على الأنظمة ذات الأغراض العامة إلا بعد 12 شهرًا من دخول قانون الذكاء الاصطناعي حيز التنفيذ.
كما يتم منح أنظمة الذكاء الاصطناعي التوليدية المتوفرة تجاريًا حاليًا – مثل ChatGPT من OpenAI وGemini من Google – “فترة انتقالية” مدتها 36 شهرًا لجعل أنظمتها متوافقة.
اكتشاف المزيد من دوت نت فور عرب
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.