تكنولوجيا

OpenAI تُغير سياستها وتبدأ تعاونًا مع البنتاغون

كشفت شركة OpenAI عن تعاونها مع وزارة الدفاع الأمريكية (البنتاغون) في عدد من المشروعات المتعلقة بتقنيات الذكاء الاصطناعي، وخاصةً في مجال الأمن السيبراني. وذلك بعد أن حذفت الشركة شرطًا من سياستها يحظر تطوير تقنيات بغرض استخدامها بواسطة المؤسسات العسكرية.

صرحت OpenAI أيضًا أنها ترغب في المشاركة بتأمين الانتخابات الرئاسية الأمريكية، خاصةً بعد تصاعد بعض الاتهامات بفشل الحكومة الأمريكية في تأمين الانتخابات سيبرانيًا، إذ تعرضت المؤسسات الحكومية الأمريكية لعدة هجمات سيبرانية يُقال أنها مدعومة من الحكومة الروسية بهدف التلاعب بالانتخابات. وتؤكد OpenAI أنها ستعمل على ضمان عدم استخدام نماذجها في نشر المعلومات السياسية المُضللة.

الانتخابات مسألة بالغة الأهمية، وأعتقد أن وجود قدر كبير من القلق أمر جيد – سام ألتمان (الرئيس التنفيذي لشركة OpenAI)

تعاون OpenAI والبنتاغون

حتى يوم 10 يناير الجاري، تضمنت صفحة سياسة الاستخدام الخاصة بشركة OpenAI شرطًا يحظر استخدام نماذج الشركة في الاستخدامات العسكرية والحربية. وبالتالي، حظر هذا الشرط ضمنيًا استخدام أدوات الشركة من قبل المؤسسات العسكرية كوزارة الدفاع. ولكن أجرت OpenAI تعديلًا على هذه السياسة، إذ أزالت الشرط الذي يحظر استخدام نماذجها في التطبيقات العسكرية، واكتفت فقط بحظر استخدامها في تطوير الأسلحة وإلحاق الضرر.

والغريب في الأمر أن OpenAI أجرت هذا التعديل في صمت تام، دون أي إعلان أو تصريح حول هذه التعديلات في سياسة الاستخدام. ومع ذلك، اضطرت OpenAI في النهاية أن تُعلق على هذه التعديلات، إذ صرحت أنها كانت بغرض توضيح سياساتها عبر استخدام عبارات مباشرة؛ في إشارة إلى استبدال حظر «الاستخدامات العسكرية» بحظر «استخدام النماذج في صناعة الأسلحة وإلحاق الضرر».

والآن، وبعد تعديل هذه السياسة، تُعلن OpenAI رسميًا تعاونها مع البنتاغون بهدف تطوير أدوات برمجية مفتوحة المصدر في مجال الأمن السيبراني، وذلك بالاشتراك مع وكالة بحوث الدفاع المتقدمة الأمريكية (DARPA). ورغم أنها تبدو خطوة جريئة من OpenAI؛ فهي ليست الأولى من نوعها، إذ تعمل ميكروسوفت، الحليف الأقوى لـ OpenAI، على دعم الجيش الأمريكي والجهات الحكومية الأخرى بالعديد من الأدوات البرمجية المختلفة.

OpenAI تُناقض نفسها

أثارت هذه الأخبار قلقًا في الأوساط التقنية، خاصةً في ظل تفاقم المخاوف من أخطار الذكاء الاصطناعي، مع تصاعد الدعوات بنشر مبدأ السلامة بين الشركات المطورة للذكاء الاصطناعي. وذكر البعض أن شركة OpenAI تعي جيدًا مخاطر إقحام أنظمتها في التطبيقات العسكرية؛ مستشهدين بورقة علمية منشورة في عام 2022، والتي ناقشت أخطار تمكين المؤسسات العسكرية بأنظمة الذكاء الاصطناعي، خاصةً وأنها كانت من إعداد مهندسي شركة OpenAI نفسها.

تشير هذه الخطوة أن OpenAI تُقدم المصالح السياسية على مبدأ السلامة، وهو أمر مرفوض تمامًا في الأوساط التقنية، خاصة التي تهتم بمجال سلامة الذكاء الاصطناعي. ورأى البعض أيضًا أن التعديلات الجديدة مرنة وفضفاضة، ويمكن تطويعها لأي أغراض عسكرية، حتى ولو كانت ضارةً! إذ يحظر التعديل الأخير استخدام نماذج الذكاء الاصطناعي في تطوير الأسلحة وإلحاق الضرر؛ وبالتالي، قد تتورط OpenAI في دعم تطوير أسلحة بالذكاء الاصطناعي، ولن تكون في منظورها بهدف إلحاق الضرر، بل ستكون لأغراض دفاعية «شرعية» طبقًا للمصلحة السياسية التي قدمتها بالفعل على مبدأ السلامة.

استخدام الذكاء الاصطناعي في حرب غزة

والآن، وبعد أكثر من مئة عام من العدوان على الغزة؛ رأينا بيانًا عمليًا على مدى الفتك الذي يُمكن أن ينتج عن استخدام الذكاء الاصطناعي في الأسلحة والحروب. وذلك بعد التأكد من استخدام الكيان الصهيوني لتقنيات الذكاء الاصطناعي في عمليات القصف والقتل التي يرتكبها يوميًا على مدار الساعة في غزة، إذ وصل بلغ إجمالي الشهداء الآن نحو 25 ألف شهيد في مئة يوم فقط!

صرحت سارة مايرز ويست، رئيسة معهد (AI Now) ومُحلل سياسات الذكاء الاصطناعي سابقًا بلجنة التجارة الفيدرالية، أن استخدام OpenAI لهذه العبارات الفضفاضة في سياستها الجديدة أمر خطير للغاية وغير مقبول؛ مُستشهدةً بالخراب الذي شهده العالم إثر استخدام الذكاء الاصطناعي في القصف على غزة. وأضافت أيضًا أن OpenAI يجب أن تُعيد صياغة سياستها مرةً أخرى لتحظر استخدام أنظمتها في كل ما يتعلق بالحروب والتطبيقات العسكرية، وذلك من ناحية أخلاقية بعد كم الخراب الذي نتج في غزة إثر استخدام الذكاء الاصطناعي في القصف.

?xml>