حذَّر عالم الفيزياء الفلكية البروفيسور ستيڤن هوكينج بأنَّ حضارة الإنسان تَدخُل في أخطر 100 عام على مدى تاريخها و تواجِهُ الإنقراض بفضل التهديدات التي هي من صُنع الإنسان مثل الذكاء الاصطناعي (AI) و العُدوان البشري و الفضائيين .
يعتقد هوكينج أَنَّ التكنولوجيا بإمكانها أن تضمنَ بقاء الجنس البشري ، لكنه في الوقت نفسه يُحذّر من مواصلة تطوير الذكاء الاصطناعي الذي قد يُثبِتُ بأنه خطأ فادح . في جلسة “سؤال و جواب” مطولة عُقِدت في Reddit ، أَوْضَح هوكينج كيف أن الذكاء الاصطناعي هو أكبر تهديد وجودي للبشرية :
الخطر الحقيقي مع الذكاء الاصطناعي ليس الخُبْث ولكن الكفاءة ، و الذكاء الاصطناعي فائق الذكاء سيكون جيدًا للغاية في تحقيق أهدافه ، و في حال لم يتم محاذاة تلك الأهداف مع أهدافنا ، فنحن في مأزق .
من المحتمل بأنك لست كارهًا للنمل الذي يخطو على النمل بناءًا على الخُبْث ، و لكن إذا كنت أنت المسؤول عن مشروع الطاقة الكهرومائية الصديقة للبيئة ، و قمت بغمر عشٍ للنمل في منطقة ما ، هذا سيء للغاية بالنسبة للنمل . دعونا لا نقوم بوضع البشرية في مثل موقِفِ هذا النمل .
إذا أصبحت آلات الذكاء الاصطناعي ذكية ، فإننا قد نواجه إنفجارًا للذكاء ، بحيث أن الآلات تطور القدرة على هندسة نفسها حتى تكونَ أكثر ذكاءًا بكثير ، وهذا قد يؤدي في نهاية المطاف إلى تَفَوُّقِ ذكاءِ هذه الآلات على ذكائنا بدرجةٍ أكبر من تَفَوُّقِ ذكائنا على ذكاء الحلزون .
يتنبأ عالم الكونيات بـ إن لم تقم آلاتنا بقتلنا ، قد نقتل نحن أنفسنا .
خلال جولةِ متحف العلوم في لندن ، هوكينج مُحذِّرًا من أنَّ الحرب النووية الكبرى ستكون نهاية الحضارة البشرية و حَثَّ هوكينج الناس على أن يكونوا أكثر تعاطفًا ، بالنظر إلى أن العدوان هو أكبر فشل للعِرق البشري و الذي يهدد بدوره إلى تدمير البشرية .
The Independent اقتبست قول العالِم :
الفشل البشري و أرغَبُ بشدة تصحيحَ ذلك لـ “العدوان” ، ربما كان العدوان هو ميزة البقاء على قيد الحياة في حِقْبة رجل الكهف ، للحصول على المزيد من الغذاء أو على إقليم ما أو على شريكٍ له جزءٌ تناسلي للإنجاب ، و لكن هذا يُهددُ بتدميرنا جميعًا الآن .
الذكاء و العدوان لديهما القدرة على تدميرنا ، و لكن ما معنى هذا بالنسبةِ لفرصِ تدمير البشرية من قبل الفضائيين ؟ منذ عدة سنوات قليلة مضت ، حذَّر هوكينج بأن في حالة وجود حضارات فضائية ذكية و أكثر تقدمًا فإنها ستكونُ سيئةَ التصرف و لن تكون ودودة تجاه بشرٍ أقل تقدمًا من الناحية التكنولوجية ، و لن يكونَ لديهم مشكلة في احتلال و استعمار الكوكب ، و في النهاية القضاء على كل العِرق البشري [دَوَّن هوكينج هذا في نيسان 2010] .
إذا قام الفضائيون بزيارتنا في أي وقت ، أعتقد أن النتيجة ستكون بقَدْرِ نتيجة عندما هبط ‘كريستوفور كولومبوس’ لأول مرة في أمريكا و التي لم تَسِرْ بشكل جيد بالنسبة للأمريكيين الأصليين ، كالفضائيين المتقدمين الذين ربما أصبحوا مثل البَدو الرُّحَّل ، أن يستعمروا أو يحتلوا أي كواكبَ يمكنُ الوصولُ إليها ، إذا كان الأمر كذلك ، فمن المنطقي بالنسبة لهم استغلال كل كوكب جديد للحصول على المواد اللازمة لبناء المزيد من سفن الفضاء ليتمكنوا من المضي قُدمًا ، من يدري كيف ستكون حدود ذلك ؟
خلال حدث إعلامي في الجمعية الملكية في لندن ؛ تموز/2015 ، أعْرَبَ هوكينج عن مخاوفه مرة أخرى :
نحن لا نعلم الكثير عن الفضائيين ، و لكن نعلم عن البشر ، إذا نظرتم إلى التاريخ لرأيتم أن التواصل بين البشر و الكائنات الأقل ذكاءًا كان في كثير من الأحيان كارثيًا من وجهة نظرهم ، و الإلتقاء بين الحضارات مع التكنولوجيا المتقدمة ضد البدائية قد جرت بشكل سيء بالنسبة للأقل تقدمًا . الحضارة التي تقوم بقراءة أحد رسائلنا قد تكون متقدمة عنا ببلايين السنين ، فإذا كان الأمر كذلك ، قد لا يقوموا بالنظر إلينا كشيء له قيمة كمثل رؤيتنا للبكتيريا .
فريق آي ثينك للترجمة
ترجمة : Amer Saeed Jr.
المصدر : http://churchandstate.org.uk/2016/06/stephen-hawking-warns-robots-nuclear-war-aliens-may-wipe-out-humanity-in-less-than-100-years/