عاجل
الثلاثاء 29 يوليو 2025
رئيس مجلس الإدارة
هبة صادق
رئيس التحرير
أحمد إمبابي
البنك الاهلي

OpenAI تحاول الحد منه

عاجل| "الخطر البيولوجي العالي".. ميزة جديدة بـ"Chat GPT" تحوله إلى قنبلة موقوتة

قنبلة موقوتة
قنبلة موقوتة

أول منتج صنفته OpenAI على أنه ذو "إمكانية عالية" للمخاطر البيولوجية  

يعد أحدث منتج من OpenAI بتسهيل جمع البيانات تلقائيًا وإنشاء جداول البيانات وحجز الرحلات الجوية وإعداد العروض التقديمية، وربما حتى المساعدة في بناء الأسلحة البيولوجية.



 

وكيل ChatGPT، وهو وكيل ذكاء اصطناعي جديد تمت إضافته إلى روبوت الدردشة ChatGPT والذي يمكنه تنفيذ إجراءات نيابة عن المستخدم، هو أول منتج صنفته OpenAI على أنه ذو "إمكانات عالية" للمخاطر البيولوجية.

 

ويعني هذا التصنيف أن نموذج الذكاء الاصطناعي يمكنه مساعدة الكيانات والأشخاص "المبتدئين" بشكل فعال، ما يسمح لهم بإطلاق تهديدات بيولوجية أو كيميائية، بحسب تقرير لمجلة فورتشن الأمريكية".

 

وبحسب "إطار التحضير" الخاص بشركة OpenAI، والذي تستخدمه الشركة لتحديد التهديدات الجديدة والاستعداد لها والتي تسبب أضرارًا جسيمة من نماذجها المتقدمة، فإن الآثار الواقعية لهذا قد تعني أن حوادث الإرهاب البيولوجي أو الكيميائي التي تنفذها جهات فاعلة من غير الدول أصبحت أكثر احتمالية وتكرارًا.

 

قال بواز باراك، عضو الفريق التقني في OpenAI، في منشور على مواقع التواصل الاجتماعي: "قد يظن البعض أن المخاطر البيولوجية غير واقعية، وأن النماذج لا تُقدم إلا معلومات يمكن التوصل إليها من خلال البحث".

 

وأضاف: "ربما كان هذا صحيحًا في عام ٢٠٢٤، ولكنه بالتأكيد ليس صحيحًا اليوم، فبناءً على تقييماتنا وتقييمات خبرائنا، فإن الخطر حقيقي للغاية".

 

وقال: "بينما لا يمكننا أن نكون متأكدين من أن هذا النموذج قادر على السماح للمبتدئ بالتسبب في أضرار بيولوجية كبيرة، أعتقد أنه كان من غير المسؤول إطلاق هذا النموذج دون ضمانات شاملة مثل تلك التي طبقناها".

 

وسائل الخطر البيولوجي

 

وقالت شركة OpenAI إن تصنيف النموذج على أنه ينطوي على مخاطر عالية من سوء الاستخدام البيولوجي كان "نهجًا حذرًا"، وهو التصنيف الذي أدى إلى توفير ضمانات إضافية للأداة.

 

وقالت كارين جو، الباحثة في مجال السلامة في شركة OpenAI، إنه في حين لا تملك الشركة دليلاً قاطعاً على أن النموذج يمكنه بالفعل توجيه مستخدم مبتدئ للتسبب في ضرر بيولوجي خطير، إلا أن الشركة قامت بتفعيل الحماية على الرغم من ذلك.

 

وتشمل هذه التدابير وكيل ChatGPT الذي يرفض الرسائل التي قد تكون مخصصة لمساعدة شخص ما على إنتاج سلاح بيولوجي، والأنظمة التي تحدد الطلبات غير الآمنة المحتملة وترسلها إلى الخبراء للمراجعة، وقواعد أكثر صرامة لحظر المحتوى الخطير، واستجابات أسرع للقضايا، والمراقبة الدقيقة لأي علامات على إساءة الاستخدام.

 

تشعر الشركة بقلق متزايد إزاء احتمال إساءة استخدام النماذج لتطوير أسلحة بيولوجية. 

 

وفي منشور على مدونتها الشهر الماضي، أعلنت OpenAI أنها تعمل على زيادة اختبارات السلامة للحد من خطر استخدام نماذج الذكاء الاصطناعي الخاصة بها لتطوير أسلحة بيولوجية.

 

وحذرت الشركة من أنه بدون هذه الاحتياطات، قد تتمكن النماذج قريبًا من تمكين "تطوير مهارات المبتدئين"، وهو ما يعني مساعدة الأشخاص ذوي الخلفيات العلمية المحدودة في تطوير أسلحة خطيرة.

 

وقال باراك ": على عكس التهديدات النووية والإشعاعية، فإن الوصول إلى المواد لا يشكل عائقًا كبيرًا أمام خلق تهديدات بيولوجية، لذا فإن الأمن يعتمد بشكل أكبر على نقص المعرفة والمهارات في المختبر".

وتابع: "بناءً على تقييماتنا وتقييمات الخبراء الخارجيين، يمكن لوكيل ChatGPT غير المقيد سد هذه الفجوة المعرفية وتقديم المشورة أقرب إلى نصيحة خبير متخصص "في الأسلحة البيولوجية ".

وقال إن ميزة الوكيل الجديدة في ChatGPT، والتي تمت إضافتها مؤخرًا بواسطة OpenAI، هي محاولة للاستفادة من إحدى أكثر مجالات تطوير الذكاء الاصطناعي شيوعًا وخطورة: وكلاء الذكاء الاصطناعي.

 

تتسابق مختبرات الذكاء الاصطناعي حاليًا لتطوير وكلاء قادرين على التعامل مع المهام الرقمية المعقدة بشكل مستقل، ويأتي إطلاق هذه الميزة بعد إعلانات مماثلة من جوجل وأنثروبيك. 

 

ترى شركات التكنولوجيا الكبرى في وكلاء الذكاء الاصطناعي فرصة عمل واعدة، حيث تدمج الشركات الذكاء الاصطناعي بشكل متزايد في سير عملها وتُمكّن من أتمتة بعض المهام.

تُدرك OpenAI أن تزايد استقلالية نماذج الذكاء الاصطناعي يُشكل مخاطر أكبر، وتُشدد الشركة على أهمية تحكم المستخدم للحد من هذه المخاطر.

 على سبيل المثال، يطلب الوكيل الإذن قبل تنفيذ أي إجراءات مهمة، ويمكن للمستخدم إيقاف الإجراء مؤقتًا أو إعادة توجيهه أو إيقافه في أي وقت.  

تابع بوابة روزا اليوسف علي
جوجل نيوز