دعا المئات من قادة التكنولوجيا في العالم إلى التعامل مع الذكاء الاصطناعي باعتباره خطراً على قدم المساواة مع الأوبئة والحرب النووية، فقد حذرت مجموعة من خبراء التكنولوجيا البارزين من جميع أنحاء العالم من أن تكنولوجيا الذكاء الاصطناعي يجب اعتبارها خطراً مجتمعياً وإعطاءها الأولوية مع نفس فئة الأوبئة والحروب النووية.
جاء ذلك على خلفية، تجربة عسكرية أمريكية منذ أيام قليله لطائرة بدون طيار، تعمل بالذكاء الاصطناعي قتلت مُشغّلها أثناء اختبارات افتراضية، عندما أُمر الذكاء الاصطناعي أثناء التجربة بالبحث عن أنظمة دفاع العدو الجوية وتدميرها، ولكل ضربة تحصل على نقاط، فقام المشغل بالضغط على زر الروبوت للتوقف عند مرحلة معينة، لكن الروبوت قتل المشغل حتى لا يتدخل في حصوله على النقاط، ثم دمر البرج الذي كان يوفر الاتصال به.
وفقاً لموقع (theguardian) صدر البيان، الذي وقعه المئات من المديرين التنفيذيين والأكاديميين، من قبل مركز أمان للذكاء الاصطناعي وسط مخاوف متزايدة بشأن التنظيم والمخاطر التي تشكلها التكنولوجيا على البشرية.
وجاء في البيان أن "التخفيف من خطر الانقراض من الذكاء الاصطناعي يجب أن يكون أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية". وكان من بين الموقعين الرؤساء التنفيذيون لشركة DeepMind التابعة لشركة Google، وشركة OpenAI لمطور ChatGPT، وشركة Anthropic التي تعمل بالذكاء الاصطناعي.
قادة OpenAI –
أطلق قادة العالم وخبراء الصناعة - مثل قادة OpenAI - دعوات لتنظيم التكنولوجيا بسبب المخاوف الوجودية من أنها قد تؤثر بشكل كبير على أسواق العمل، وتضر بصحة الملايين، وتسليح المعلومات المضللة والتمييز وانتحال الهوية.هذا الشهر، غالباً ما كان الرجل الذي وُصف بأنه الأب الروحي لمنظمة العفو الدولية - جيفري هينتون، وهو أيضاً أحد الموقعين - ترك Google مشيراً إلى "مخاطرها الوجودية". لقد تم الاعتراف بالخطر أخيراً للمرة الأولى - وهو تغيير سريع في المسار داخل الحكومة جاء بعد شهرين من نشر ورقة حذرت بها من الذكاء الاصطناعي.
وعلى الرغم من أن الرسالة ليست الأولى، فمن المحتمل أن تكون الأكثر تأثيراً، نظراً لمجموعتها الواسعة من الموقعين واهتمامها الوجودي الأساسي، وفقاً لمايكل أوزبورن، الأستاذ في التعلم الآلي بجامعة أكسفورد والمؤسس المشارك لـMind. مسبك.
قال: "إنه لأمر رائع حقاً أن الكثير من الناس وقعوا على هذه الرسالة". "هذا يظهر أن هناك إدراكاً متزايداً بين أولئك الذين يعملون في الذكاء الاصطناعي بأن المخاطر الوجودية هي مصدر قلق حقيقي".
تفاقم المخاطر الوجودية من الذكاء الاصطناعي
إن قدرة الذكاء الاصطناعي على تفاقم المخاطر الوجودية الحالية، مثل الأوبئة المهندسة وسباق التسلح العسكري، هي مخاوف دفعت أوزبورن إلى توقيع الخطاب العام، إلى جانب التهديدات الوجودية الجديدة للذكاء الاصطناعي. تأتي الدعوات للحد من التهديدات في أعقاب نجاح ChatGPT، الذي تم إطلاقه في نوفمبر. تم اعتماد نموذج اللغة على نطاق واسع من قبل الملايين من الناس وتقدم بسرعة إلى ما بعد التوقعات من قبل أولئك الذين هم على دراية أفضل في الصناعة.قال أوزبورن: "نظراً لأننا لا نفهم الذكاء الاصطناعي جيداً، فهناك احتمال أنه قد يلعب دوراً كنوع من الكائنات الحية المنافسة الجديدة على هذا الكوكب، لذلك قد يغدو نوعاً من الأنواع التي صممناها والتي قد تلعب دوراً مدمراً في بقائنا كنوع".