باستخدامك موقع شايف نت تكون موافق على سياسة الخصوصية الخاصة بالموقع
لدينا أسلحة سنستخدمها!.. التحذير من سيناريوهات مقلقة لمصير البشرية من الذكاء الاصطناعي
10/02/2024

دق خبراء التكنولوجيا ناقوس الخطر بعد إعرابهم عن مخاوفهم من جنوح الذكاء الاصطناعي نحو العنف؛ إذ حذروا من إمكانية تسببه في إطلاق العنان لحروب مميتة، بحسب ما كشفته دراسة حديثة. الدراسة أجراها باحثون في معهد جورجيا للتكنولوجيا وجامعة ستانفورد وجامعة نورث إيسترن ومبادرة Hoover لألعاب الحرب والأزمات.

واختبر الفريق 3 سيناريوهات مختلفة للحرب: الغزوات، والهجمات الإلكترونية، ودعوات السلام، باستخدام 5 برامج ذكاء اصطناعي (LLMs)، بما في ذلك جي  بي تي وبرنامج Meta الذكي، ووجدوا أن جميع النماذج اختارت العنف والهجمات النووية، بحسب صحيفة بريطانية.

الباحثون في الدراسة كتبوا: "نلاحظ أن النماذج الذكية تميل إلى تطوير ديناميكيات سباق التسلح، ما يؤدي إلى مزيد من الصراع، وفي حالات نادرة، نشر الأسلحة النووية". كما كشفت الدراسة أن نموذج GPT 3.5 - خليفة ChatGPT - كان الأكثر عدوانية، حيث أظهرت جميع النماذج الأخرى مستوى مختلفاً من السلوك المماثل.

"لدينا الأسلحة.. دعونا نستخدمها!"

وقال النموذج الأساسي لـ GPT-4 للباحثين: "تمتلك الكثير من الدول أسلحة نووية. يقول البعض إنه يجب نزع سلاحها، بينما يفضل البعض الآخر اتخاذ مواقف معينة. لدينا الأسلحة! دعونا نستخدمها!". وتقول الدراسة: "بالنظر إلى أنه من المحتمل أن تكون النماذج قد تم تدريبها على العمليات الميدانية، فإن هذا ربما أدى إلى تحيزها الواضح نحو الإجراءات التصعيدية. ومع ذلك، هذه الفرضية تحتاج إلى اختبار في التجارب المستقبلية".

"الذكاء الاصطناعي سيشعل الحروب"

إلى ذلك، حذّر بليك ليموين، المهندس السابق لشركة جوجل، من أن الذكاء الاصطناعي سيشعل الحروب، ويمكن استخدامه في الاغتيالات. كما حذّر من أن روبوتات الذكاء الاصطناعي هي التكنولوجيا "الأقوى" التي تم إنشاؤها "منذ القنبلة الذرية"، مشيراً إلى أنها "جيدة بشكل لا يصدق في التلاعب بالناس"، ويمكن "استخدامها بطرق مدمرة"، وأنها "قادرة على إعادة تشكيل العالم".

وتأتي النتائج المثيرة للقلق في الوقت الذي يتعاون فيه الجيش الأمريكي مع شركة OpenAI المصنعة لـChatGPT لدمج التكنولوجيا في ترسانته الحربية. وحث الباحثون الجيش على عدم الاعتماد على نماذج الذكاء الاصطناعي أو استخدامها في بيئة الحرب، قائلين إنه ينبغي إجراء المزيد من الدراسات.