وقعت شركتا “أوبن إيه آي” و”أنثروبيك”، مزودتا نماذج اللغة الكبيرة، اتفاقيات فردية مع معهد سلامة الذكاء الاصطناعي الأمريكي التابع للمعهد الوطني للمعايير والتكنولوجيا التابع لوزارة التجارة الأمريكية، للتعاون في أبحاث سلامة الذكاء الاصطناعي التي تشمل الاختبار والتقييم.
كجزء من الاتفاقيات، ستشارك Anthropic وOpenAI نماذجهما الجديدة مع المعهد قبل إصدارها للجمهور لإجراء فحوصات السلامة.
وقالت إليزابيث كيلي، مديرة معهد سلامة الذكاء الاصطناعي الأمريكي، في بيان: “مع وضع هذه الاتفاقيات في مكانها، نتطلع إلى بدء تعاوننا الفني مع Anthropic وOpenAI لتطوير علم سلامة الذكاء الاصطناعي“.
وتشمل الاتفاقيات أيضًا الكيانات المشاركة في أبحاث تعاونية حول كيفية تقييم القدرات ومخاطر السلامة، بالإضافة إلى طرق التخفيف من هذه المخاطر.
تأتي الاتفاقيات بعد ما يقرب من عام من إقرار الرئيس الأمريكي جو بايدن أمرًا تنفيذيًا لإنشاء سلسلة شاملة من المعايير وحماية السلامة والخصوصية وتدابير الرقابة لتطوير واستخدام الذكاء الاصطناعي.
وتتضمن الاتفاقيات مع مقدمي النماذج اللغوية الكبيرة أيضًا بندًا يسمح لمعهد السلامة الأمريكي بتقديم ملاحظات إلى الشركتين بشأن التحسينات المحتملة للسلامة في نماذجهما بالتعاون مع شركائهما في معهد سلامة الذكاء الاصطناعي في المملكة المتحدة.
يشار إلى أنه في وقت سابق من شهر أبريل، وقعت الولايات المتحدة والمملكة المتحدة اتفاقية لاختبار شهادات السلامة التي تدعم أنظمة الذكاء الاصطناعي، وتم توقيع الاتفاقية أو مذكرة التفاهم في واشنطن من قبل وزيرة التجارة الأمريكية جينا رايموندو ووزيرة التكنولوجيا البريطانية ميشيل دونيلان، والتعاون بين معاهد سلامة الذكاء الاصطناعي هو نتيجة مباشرة لهذه الاتفاقية.
تأتي الاتفاقيات التي وقعتها OpenAI وAnthropic في الوقت الذي يدخل فيه مشروع قانون سلامة الذكاء الاصطناعي في كاليفورنيا مراحله النهائية لبدء دخوله حيز التنفيذ، الأمر الذي يمهد الطريق للوائح مماثلة في جميع أنحاء الولايات المتحدة الأمريكية.
يقترح التشريع، المعروف باسم قانون الابتكار الآمن والمضمون لنماذج الذكاء الاصطناعي الرائدة (SB 1047)، تدابير اختبار ومساءلة صارمة لمطوري الذكاء الاصطناعي، وخاصة أولئك الذين ينشئون نماذج كبيرة ومعقدة، وفي حال إذا تم سن مشروع القانون كقانون، فسيطلب من شركات الذكاء الاصطناعي اختبار أنظمتها من أجل السلامة قبل إصدارها للجمهور.