اخبار سياسية

OpenAI تعلن التوصل إلى اتفاق مع البنتاجون لاستخدام نماذجها عقب الخلاف مع أنثروبيك

اتفاق OpenAI مع البنتاجون

أعلن الرئيس التنفيذي لشركة OpenAI سام ألتمان أن شركته توصلت إلى اتفاق مع وزارة الدفاع الأميركية لاستخدام نماذج الذكاء الاصطناعي ضمن شبكة البنتاجون السرية، وذلك بعدما وافقت الوزارة على خطوطها الحمراء المتعلقة بالسلامة.

وصف ألتمان في منشور على منصة “إكس” أن الوزارة أبدت احتراماً عميقاً لمعايير السلامة ورغبة حقيقية في شراكة من أجل تحقيق أفضل نتيجة ممكنة.

وأوضح أن البنتاجون وافق على مبدئين أساسيين في السلامة، هما حظر المراقبة الجماعية داخل البلاد وتولي البشر مسؤولية واضحة عن استخدام القوة، بما في ذلك أنظمة الأسلحة ذاتية التشغيل، وأدرجت الوزارة هذه المبادئ في الاتفاق بين الطرفين.

وأضاف أنه سيتم بناء ضمانات تقنية لضمان أن نماذج OpenAI تتصرف كما هو مطلوب، وسيُوفد مهندسون ميدانيون (FDEs) لدعم النماذج وضمان سلامتها، كما سيجري النشر حصراً عبر شبكات سحابية.

وطلب ألتمان من البنتاجون أن يعرض هذه الشروط نفسها على جميع شركات الذكاء الاصطناعي، مؤكداً أن هذه شروط ينبغي أن يكون الجميع مستعداً لقبولها.

وأضاف أن الهدف هو خفض التصعيد بعيداً عن المسارات القانونية والإجراءات الحكومية، وأن يتم التوجه بدلاً من ذلك نحو اتفاقات معقولة، مع التزام الشركة بخدمة البشرية جمعاء بأفضل ما تستطيع.

المبادئ والضمانات التي وافقتها البنتاجون

أشارت التصريحات إلى أن الوزارة وافقت على الحظرين الأساسيين، ودمجت هذه المبادئ في الاتفاق، مع السعي إلى وجود ضمانات تقنية تضمن أن النماذج ستُشغَّل في بيئات محددة وآمنة، بما في ذلك تنفيذ برامج دعم فني وتدريب ميداني.

موقف أنثروبيك والخلاف مع الاتفاق

وانتقد البنتاجون أن خطوط أنثروبيك الحمراء بشأن استخدام الذكاء الاصطناعي في المجال العسكري تبدو مستندة إلى اعتبارات فلسفية وتقدمية مفرطة، وتختلف عن نهج OpenAI في الاتفاق الحالي.

وتشير تقارير إلى أن القوانين القائمة لا تأخذ الذكاء الاصطناعي في الحسبان بشكل كافٍ، وهو ما يعكس خلافاً في المقاربة بين الطرفين.

وأعلنت Anthropic الجمعة أنها سترفع دعوى قضائية ضد البنتاجون بسبب العقوبات المفروضة عليها نتيجة تبنيها القيود نفسها.

في المقابل، يقول ألتمان إن المراقبة الجماعية خارج نطاق القانون، وأن البنتاجون سيلتزم بالقوانين المعمول بها، بينما ترى Anthropic أن القانون لم يواكب تطور الذكاء الاصطناعي وأنه قد يسمح بجمع كميات هائلة من البيانات العامة.

ردود الفعل السياسية والتداعيات

في مذكرة داخلية أرسلها ألتمان إلى الموظفين ليل الجمعة، أوضح النهج الذي تم الموافقة عليه، قائلاً إن الشركة تسعى لامتلاك القدرة على تعزيز أنظمتها الأمنية وأنظمة المراقبة استناداً إلى دروس النشر الميداني، وتعتزم توظيف باحثين يحملون تصاريح أمنية لمتابعة كيفية استخدام التكنولوجيا وتقديم المشورة للحكومة بشأن المخاطر، كما تطالب بضمانات تقنية تقصر تشغيل النماذج على بيئات سحابية وتستبعد استخدامها في أنظمة الأسلحة ذاتية التشغيل.

غضبت إدارة ترامب من فكرة أن Anthropic بعلاماتها اليسارية قد تمثل تأثيراً على قرارات البنتاجون، فكتب ترامب على Truth Social أن الولايات المتحدة هي من تقرّ مصير بلدها وليس شركة ذكاء اصطناعي يسارية متطرفة تديرها أشخاص لا يعرفون العالم الحقيقي.

وذكر مسؤول بارز في البنتاجون أن المشكلة مع داريو أمودي تعود إلى أن توجهه أيديولوجي، وأنهم يعرفون مع من يتعاملون، وهو قول يعكس مخاوف من تأثير سياسي محتمل على استخدام التكنولوجيا في العمليات العسكرية.

كما أشار تقرير إلى أن موظفين في OpenAI وGoogle دعوا قيادات شركاتهم إلى التضامن مع Anthropic في مواجهة القيود المفروضة من البنتاجون.

مقالات ذات صلة

زر الذهاب إلى الأعلى