شركة G42 تَنشُر إطار عمل السلامة الخاص بها في مجال الذكاء الاصطناعي الحدودي Frontier AI Safety

0
  • وقَّعت شركة G42 على التزامات سلامة الذكاء الاصطناعي الحدودي Frontier AI Safety Commitments في قمة سيول للذكاء الاصطناعي، في مايو 2024.
  • تم إنشاء مجلس حوكمة الذكاء الاصطناعي الحدودي Frontier AI Governance Board للإشراف على الامتثال، وتقييم المَخاطر، وضمان مَعايير الأمان لنماذج الذكاء الاصطناعي.
  • تُعزز عمليات التدقيق المُستقلة وتدابير الشفافية العامة التزام G42 بسلامة الذكاء الاصطناعي، والمُساءلة.
  • تُحدد معايير المَخاطر الواضحة الحالات التي تستوجب تعزيز الأمان في قدرات الذكاء الاصطناعي؛ بما يشمل المَخاطر المُتعلقة بالأمن البيولوجي، والسيبراني.

المنبر التونسي (الذكاء الاصطناعي الحدودي) – أعلنت اليوم G42، وهي مجموعة للتكنولوجيا تتخذ من الإمارات العربية المتحدة مقرًا لها، عن نشر إطار عمل السلامة الخاص بها في مجال الذكاء الاصطناعي الحدودي Frontier AI Safety، مما يُعزز التزامها بـ Frontier AI Safety Commitments بقمة سيول للذكاء الاصطناعي، وإعلان Bletchley، ويضع الإطار بروتوكولات واضحة لتقييم المَخاطر، والحوكمة، والإشراف الخارجي، لضمان التطوير الآمِن والمسؤول لنماذج الذكاء الاصطناعي المتقدمة.

مع استمرار تطوُّر قدرات الذكاء الاصطناعي، يؤسس إطار عمل G42 حدود القدرات المتقدمة، وآليات حوكمة مستقلة، وضمانات للتطبيق لتحديد وتَخفيف مَخاطر الذكاء الاصطناعي قبل أن تُصبح حَرجة، ويتماشى هذا النهج مع أفضل المُمارسات العالمية، ويُسهم في جهود السلامة المُستمرة للذكاء الاصطناعي في جميع أنحاء العالم.

قال Peng Xiao، الرئيس التنفيذي لمجموعة G42: “الذكاء الاصطناعي هو التكنولوجيا المُحدِّدة لعصرنا، وهو أداة أساسية من شأنها إعادة تشكيل الاقتصادات والمُجتمعات، كما فعلت الكهرباء في الماضي تمامًا”، وأضاف قائلًا: “مع مثل هذه القوة تأتي المسؤولية. يُجَسد هذا الإطار التزامنا بحوكمة الذكاء الاصطناعي؛ لضمان تَماشي التطوُّرات التكنولوجية مع أعلى معايير الأمان”.

 يُقدّم إطار سلامة الذكاء الاصطناعي الحدودي Frontier AI Safety نهجًا مُتعدد المستويات لإدارة مَخاطر الذكاء الاصطناعي؛ مما يَضمن تطوير الأنظمة المُتقدمة، واختبارها، ونشرها وفق ضوابط صارمة، وتشمل الضوابط:

  • مجلس إدارة G42 للذكاء الاصطناعي الحدودي – بقيادة الدكتور Andrew Jackson، كبير مسؤولي (الذكاء الاصطناعي المسؤول)، وAlexander Trafton، رئيس مَخاطر التكنولوجيا؛ وMartin Edelman، المُستشار العام، وAdele O’Herlihy، رئيسة الذكاء الاصطناعي المسؤول، ويُشرف المجلس على امتثال النماذج، وبروتوكولات السلامة، والاستجابة للحوادث.
  • عمليات التدقيق المُستقلة وإجراءات الشفافية – سوف تخضع G42 لعمليات تدقيق داخلية مُكثفة لنظم الحوكمة، مع إجراء مُراجَعات خارجية سنوية لضمان الامتثال للوائح التنظيمية، ومُتطلبات الأمن والشفافية. ستقوم الشركة بنشر تقرير شفافية يُسَلط الضوء على إجراءات الأمان الرئيسية وتحليل المَخاطر المُحتمَلة.
  • حدود المَخاطر واستراتيجيات التخفيف – يُحدد الإطار معايير مُحدَّدة لتقييم المَخاطر المُتعلقة بالأمن البيولوجي، والثغرات السيبرانية، والأنظمة القائمة على اتخاذ القرار الذاتي، لضمان الحد من المَخاطر التشغيلية والأمنية، وفي حال وصول النموذج إلى هذه الحدود، فإن G42 سوف تتخذ تدابير أمان إضافية، أو تقوم بتعديل سلوك النظام، أو تقيد عملية النشر لضمان السلامة.

تم تطوير إطار سلامة الذكاء الاصطناعي الحدودي Frontier AI Safety بدعم من خبراء مُختصين في مجال مَخاطر الذكاء الاصطناعي؛ مثل METR وSaferAI، الذين ساهمت خبراتهم في صياغة سياسات الحوكمة، واستراتيجيات الحد من المخاطر.

باعتبارها واحدة من أولى شركات الذكاء الاصطناعي في الشرق الأوسط التي تُقدم إطارًا شاملًا لسلامة الذكاء الاصطناعي، تُعزز G42 دورها الريادي في حوكمة الذكاء الاصطناعي وإدارة المخاطر. تُواصل الشركة التعاوُن مع الهيئات التنظيمية، وُصَّناع السياسات، والمؤسسات الصناعية لضمان تطوير معايير متقدمة لأمان الذكاء الاصطناعي، ودعم جهود الحوكمة العالمية.

“يتطلب ضمان سلامة الذكاء الاصطناعي نهجًا مُتكاملًا يشمل الحوكمة الصارمة، والمُساءلة التنظيمية، والتعاوُن المشترَك بين القطاعات المختلفة”، وفقًا لقول الدكتور Andrew Jackson، كبير مسؤولي الذكاء الاصطناعي المسؤول في G42 والرئيس التنفيذي لشركة Inception، وأضاف قائلًا: ” نضمن تطوير تقنيات مسؤولة تتماشى مع المتطلبات المجتمعية والأخلاقية، من خلال تضمين مبادئ الشفافية، واعتماد استراتيجيات استباقية لإدارة المخاطر في أنظمة الذكاء الاصطناعي لدينا”.

لتطبيق إطار Frontier AI Safety عمليًا، أطلقت G42 منصة X-Risks Leaderboard، وهي منصة تقييم مفتوحة تَقيس مَخاطر نماذج الذكاء الاصطناعي في مجالات الأمن السيبراني، والكيمياء، وعلم الأحياء. تَعتمد المنصة على حزمة Safety Evaluation التابعة لـ G42 في Inception، حيث تُوفر تقييمًا عمليًا لنقاط الضعف المُحتملة في الذكاء الاصطناعي، مما يُعَزز التزام G42 بتحويل مفاهيم سلامة الذكاء الاصطناعي من مُجَرد نقاشات سياسية إلى إجراءات وقائية قابلة للقياس وشفافة.

تُواصل G42 التزامها بالتعاوُن مع الجهات الأخرى المُوقِّعة على هذه الالتزامات، استنادًا إلى شراكاتها الحالية مع شركات مثل Microsoft وNVIDIA وAMD وCerebras وQualcomm، كما ستستمر في المُشاركة في مُبادَرات الأمان الأُخرى، عبر تبادُل معلومات التهديدات مع شُرَكاء القطاع، لمواجهة التحديات المُشترَكة والمخاطر الناشئة.

نبذة عن شركة G42

تُعَد (G42) إحدى المجموعات العالمية الرائدة المُتخصصة في إنشاء قدرات ذكاء اصطناعي ذات رؤية من أجل غدٍ أفضل. تأسست G42 في مدينة أبو ظبي، وتُباشر عملها على الصعيد العالمي، وتتبنى الذكاء الاصطناعي كقوة إيجابية ومؤَثرة في مختلف القطاعات. تُدرك G42 الإمكانات الهائلة المُحتمل تحقيقها حاليًا، من البيولوجيا الجزيئية إلى استكشاف الفضاء وكل شيء بينهما. للمزيد من المعلومات، يُرجى زيارة www.g42.ai. ستعمل G42 على تحسين إطار Frontier AI Safety بشكل مستمر بما يتماشى مع تطوُّر مَخاطر الذكاء الاصطناعي، والمُتطلبات التنظيمية، والتطوُّرات التكنولوجية.

ترك الرد

من فضلك ادخل تعليقك
من فضلك ادخل اسمك هنا

The reCAPTCHA verification period has expired. Please reload the page.