الخليج الإماراتية: استخدام الذكاء الاصطناعي خارج إطار المصلحة الإنسانية يتنافى مع المعايير الأخلاقية
قالت صحيفة ” الخليج ” الإماراتية أنه مع التقدم الهائل في أنظمة الذكاء الاصطناعي الذي تحقق خلال السنوات الأخيرة، بدأت بعض الأصوات ترتفع محذرة من خطورة تأثيره السلبي في البشرية مستقبلاً، رغم فوائده الإيجابية، خصوصاً إذا ما تم استخدام الذكاء الاصطناعي خارج إطار المصلحة الإنسانية وبما يتنافى مع المعايير الأخلاقية والقوانين الدولية.
وأشارت الصحيفة فى افتتاحيتها، اليوم الخميس، تحت عنوان ” مخاطر الذكاء الاصطناعي”إلى أن مفوضية الأمم المتحدة لحقوق الإنسان كانت قد حذرت من أن الذكاء الاصطناعي قد يحمل «آثاراً سلبية، لا بل كارثية على الإنسان وحقوقه».
كما كانت شخصيات علمية وسياسية وازنة مثل العالم ستيفن هوكينج، أبدت مخاوفها من التطور الذي تشهده أجهزة الذكاء الاصطناعي، خصوصاً لجهة عدم القدرة على التحكم بها أو السيطرة عليها، مع استمرار وتيرة ثورة التكنولوجيا هذه، حيث تشير التقديرات مثلاً إلى أن ثلث الوظائف في منتصف ثلاثينات القرن الحالي قد تتحول إلى الأتمتة، ما يعني أن ملايين الموظفين والعمال سيفقدون وظائفهم.
وأضافت أن ورقة بحثية أصدرها خبراء في الذكاء الاصطناعي في المجالين الصناعي والأكاديمي بعنوان «الاستخدام الضار للذكاء الاصطناعي: التنبؤ والوقاية والتخفيف»، حذرت من أن هذا القطاع سيؤثر سلباً في الجنس البشري وسيؤدي في لحظة ما إلى أضرار جسيمة في عدة جوانب حساسة في حياته.
واعتبرت الورقة أن«الاستخدام المزدوج» وقدرة الأجهزة التقنية على اتخاذ آلاف القرارات المعقدة في الثانية الواحدة يمكن استخدامها في النقيضين، إما لمنفعة الناس وإما لإيذائهم.
وتابعت :” يبدو أن الخطر الأكبر الذي يهدد البشرية هو مسارعة الدول الكبرى إلى استخدام الذكاء الاصطناعي بشكل واسع للأغراض العسكرية، وهو ما تفعله خصوصاً الولايات المتحدة وروسيا والصين، إذ خصصت ميزانيات ضخمة لهذا الغرض، كما أنها ترفض فرض حظر على هذه الأسلحة أو تقييد استخدامها ، مثلاً، أصدرت لجنة يرأسها المدير السابق لجوجل لاريك شميت، تقريراً تم رفعه إلى الرئيس الأمريكي جو بايدن مؤخراً، يدعو الولايات المتحدة وحلفاءها إلى رفض حظر عالمي على أنظمة الأسلحة التي تعمل بالذكاء الإصطناعي”. وقال التقرير، إن استخدام الذكاء الاصطناعي «سيقلص فترات اتخاذ القرارات» ويمكّن من القيام بردود عسكرية لا يمكن للبشر أن يقوموا بها بمفردهم.
ويقول نول شاركي الناطق باسم حملة إيقاف الربورتات القاتلة «هذا تقرير مرعب قد يؤدي إلى انتشار الأسلحة التي تعمل بالذكاء الاصطناعي التي تصدر بمفردها قرارات حول من ينبغي قتله.
ولفتت إلى تحذير البروفيسور جيمس داور من كلية ماكليستر الأمريكية، من أن سباق التسلح القائم على صناعة «روبوتات قاتلة» يمكن أن يقضي على البشرية إذا ترك من دون رادع، وأضاف: إن الأخطاء الخوارزمية التي لا مفر منها قد تؤدي إلى القضاء على مدن بأمكلها، فيما قال أستاذ معهد ماساتشوستس للتكنولوجيا ماكس تيجمارك «هذه التكنولوجيا تتطور بشكل أسرع بكثير من النقاش العسكري السياسي»، وتابع«يمكن القول إننا نتجه بشكل افتراضي إلى أسوأ نتيجة ممكنة».
وقالت “الخليج” في ختام افتتاحيتها هو سباق تسلح جديد وخطر لأن القرارات لا يتخذها البشر، إنما الآلات.
المصدر: وكالة أنباء الشرق الأوسط (أ ش أ)