دعوة من إيلون موسك لوقف تجارب الذكاء الاصطناعي العملاقة
دعا الملياردير إيلون موسك ومجموعة من الخبراء يوم الأربعاء إلى التوقف عن تطوير أنظمة ذكاء اصطناعي قوية لإتاحة الوقت للتأكد من سلامتها. جاءت المطالبة بخطاب مفتوح ووقع عليه أكثر من 1000 شخص حتى الآن، بما في ذلك موسك والمؤسس المشارك لشركة آبل، ستيف وزنياك، وذلك على خلفية إصدار GPT-4 من شركة OpenAI المدعومة من مايكروسوفت.
تقول الشركة إن أحدث طراز لها أقوى بكثير من الإصدار السابق، والذي تم استخدامه لتشغيل ChatGPT، وهو روبوت قادر على توليد أجزاء من النص من أقصر المطالبات. وجاء في الرسالة المفتوحة بعنوان “إيقاف تجارب الذكاء الاصطناعي العملاقة مؤقتا”: “يمكن لأنظمة الذكاء الاصطناعي ذات الذكاء التنافسي البشري أن تشكل مخاطر عميقة على المجتمع…”
أسئلة شائعة حول دعوة إيلون موسك
1- ما هي دعوة إيلون موسك لوقف تجارب الذكاء الاصطناعي العملاقة؟
دعا إيلون موسك وأكثر من ألف خبير إلى التوقف عن تطوير الأنظمة ذات الذكاء التنافسي البشري لإتاحة الوقت للتأكد من سلامتها، حيث يمكن أن تشكل هذه الأنظمة مخاطر عميقة على المجتمع.
2- من هم الأشخاص الذين وقعوا على الخطاب المفتوح؟
وقع على الخطاب المفتوح أكثر من ألف شخص حتى الآن، بما في ذلك إيلون موسك والمؤسس المشارك لشركة آبل، ستيف وزنياك.
3- ما هو شيء GPT-4؟
يعتبر GPT-4 أحدث إصدار من OpenAI، وهو طراز أقوى بكثير من الإصدار السابق، وكان يستخدم لتشغيل ChatGPT، وهو روبوت قادر على توليد أجزاء من النص من أقصر المطالبات.
4- هل تقدم OpenAI أنظمة ذكاء اصطناعي خطرة؟
لا يمكن الجزم بذلك بشكل قاطع، لكن دعوة إيلون موسك والخبراء جاءت للتأكيد على ضرورة التأكد من سلامة تلك الأنظمة، حيث يمكن أن تشكل مخاطر عميقة على المجتمع.
5- ما هي المخاطر المحتملة لأنظمة الذكاء الاصطناعي ذات الذكاء التنافسي البشري؟
تشكل أنظمة الذكاء الاصطناعي ذات الذكاء التنافسي البشري مخاطر عميقة على المجتمع، مثل استخدامها في الهجمات الإلكترونية والتجسس والسيطرة على السلطة السياسية، إضافة إلى احتمالات خطأ التنبؤ وتأثيراتها السلبية على سوق العمل والاقتصاد بشكل عام.