أقرت شركة OpenAI، المبتكرة لبرنامج ChatGPT، بأن أحدث نموذج لها، والمعروف باسم “o1″، يمكن إساءة استخدامه في إنشاء أسلحة بيولوجية.
وكانت الشركة قد كشف الأسبوع الماضي، عن نموذجها الجديد، الذي جاء بمستويات محسنة من قدرات التفكير وحل المشكلات، ويمثل نموذج o1 من OpenAI قفزة نوعية في مجال الذكاء الاصطناعي. فقد تمكن هذا النموذج المتطور من تحقيق إنجازات جديدة، حيث أظهر قدرة متفوقة على حل المشكلات المعقدة متعددة الخطوات، وتوليد شفرات برمجية عالية الجودة. وبفضل آليات التعلم المتقدمة التي تم تطويرها، بات النموذج قادراً على محاكاة التفكير البشري بشكل أدق، مما يمهد الطريق لتحقيق ذكاء اصطناعي أكثر تطوراً وفاعلية.”
صنفت بطاقة النظام الخاصة بالشركة، وهي أداة تشرح كيفية عمل الذكاء الاصطناعي، النماذج الجديدة على أنها “متوسطة الخطورة” فيما يتعلق بالقضايا المتعلقة بالأسلحة الكيميائية والبيولوجية والإشعاعية والنووية (CBRN).، هذا هو أعلى مستوى خطورة حددته شركة OpenAI لنماذجها على الإطلاق. وذكرت الشركة أن هذا يعني أن التكنولوجيا الجديدة “حسنت بشكل ملحوظ” قدرة الخبراء على إنشاء أسلحة بيولوجية، حسبما ذكرت صحيفة فاينانشال تايمز.
وقالت ميرا موراتي، المديرة التقنية لشركة OpenAI، قالت لـ The report، أن الشركة “حذرة” بشكل خاص بشأن كيفية تقديم o1 للجمهور بسبب قدراتها المتقدمة.
تم اختبار النموذج من قبل أعضاء الفريق الأحمر والخبراء في مختلف المجالات العلمية الذين حاولوا دفع النموذج إلى حدوده القصوى. وقد صرحت “ميرا” أن النماذج الحالية حققت أداءً أفضل بكثير في مقاييس السلامة العامة مقارنة بسابقاتها.
وسبق أن حذر الخبراء من أن برامج الذكاء الاصطناعي ذات القدرات الأكثر تقدمًا، مثل التفكير خطوة بخطوة، تشكل خطرًا متزايدًا لسوء الاستخدام في أيدي الجهات الخبيثة، وفقًا للتقرير.
أشار يوشوا بينجيو، وهو عالم رائد في مجال الذكاء الاصطناعي وأستاذ علوم الكمبيوتر في جامعة مونتريال، إلى ضرورة سن التشريعات مثل مشروع القانون SB 1047 الذي نوقش في كاليفورنيا للحد من مخاطر الذكاء الاصطناعي التوليدي. وسيطلب مشروع القانون من صانعي النماذج عالية التكلفة تقليل مخاطر استخدام نماذجهم لتطوير الأسلحة البيولوجية.
في يناير 2024، أظهرت دراسة الفائدة المحدودة لنموذج GPT-4 في تطوير الأسلحة البيولوجية. بدأت الدراسة استجابة للمخاوف بشأن إساءة استخدام تقنيات الذكاء الاصطناعي لأغراض ضارة.
في وقت سابق، دحض مارك زوكربيرج في جلسة استماع أمام الكونجرس الأمريكي ادعاءات تريستان هاريس، المؤسس المشارك لمركز التكنولوجيا الإنسانية، بأن الذكاء الاصطناعي غير آمن، مما يؤدي إلى إنتاج أسلحة دمار شامل من صنع الذكاء الاصطناعي.
وفي الوقت نفسه، أفادت تقارير سابقة أن شركة OpenAI تعاونت مع مختبر لوس ألاموس الوطني لاستكشاف إمكانات ومخاطر الذكاء الاصطناعي في البحث العلمي.