شركة OpenAI تشكل فريقًا لدراسة التهديدات النووية للذكاء الاصطناعي


 

أعلنت شركة OpenAI يوم الخميس تشكيل فريق جديد يهدف إلى تقييم والتحقيق في نماذج الذكاء الاصطناعي لحماية من ما تعتبره المخاطر الكارثية. 


الفريق، المسمى Preparedness، يتزعمه ألكسندر مادري، مدير مركز تقنية التعلم الآلي القابل للنشر في معهد MIT. تم تعيين مادري كرئيس لقسم الاستعداد في OpenAI في شهر مايو الماضي.


كما ان مسؤوليات فريق الاستعداد تتضمن تتبع وتوقع مخاطر النظم الذكية الاصطناعية المستقبلية وحمايتها من قدرتها على إقناع وخداع البشر وتوليد التعليمات البرمجية الضارة. 


الشركة أشارت إلى أنها تشدد على بعض فئات المخاطر، مثل التهديدات الكيميائية والبيولوجية والإشعاعية والنووية، عندما يتعلق الأمر بالذكاء الاصطناعي.


سام ألتمان، المدير التنفيذي لشركة OpenAI، يعرب عن مخاوفه بشكل متكرر بخصوص تأثير التكنولوجيا ويعتبرها مصدر قلق. الشركة تبحث أيضًا في دراسة المجالات الأقل وضوحًا والأكثر رسوخًا المتعلقة بالمخاطر التقنية الناشئة.


ومع تشكيل فريق الاستعداد، قامت OpenAI بطلب أفكار لدراسات المخاطر مع جوائز تصل إلى 25,000 دولار وفرص للعمل في الفريق. الشركة تعمل على وضع سياسة تطوير مستنيرة للمخاطر توضح نهجها لتقييم نماذج الذكاء الاصطناعي وأدوات المراقبة وإجراءات للتخفيف من المخاطر والهيكل التنظيمي للرقابة عبر عمليات التطوير.


وتهدف OpenAI إلى استكمال أعمالها في مجال سلامة الذكاء الاصطناعي، مع التركيز على مرحلتي النشر السابقة واللاحقة للنموذج. الشركة تؤمن بإمكانية تعزيز البشرية بواسطة التكنولوجيا الجديدة وتسعى إلى ضمان توافر الفهم والبنية التحتية اللازمة لسلامة أنظمة الذكاء الاصطناعي ذات القدرة العالية.

شكرا لك ولمرورك