الإثنين , 25 سبتمبر 2017
الرئيسية » مقالات مختارة » ستيڤن هوكينج يُحذر : الروبوتات ، الحرب النووية و الفضائيين قد يمحون البشرية في أقل من 100 عام

ستيڤن هوكينج يُحذر : الروبوتات ، الحرب النووية و الفضائيين قد يمحون البشرية في أقل من 100 عام

حذَّر عالم الفيزياء الفلكية البروفيسور ستيڤن هوكينج بأنَّ حضارة الإنسان تَدخُل في أخطر 100 عام على مدى تاريخها و تواجِهُ الإنقراض بفضل التهديدات التي هي من صُنع الإنسان مثل الذكاء الاصطناعي (AI) و العُدوان البشري و الفضائيين .

يعتقد هوكينج أَنَّ التكنولوجيا بإمكانها أن تضمنَ بقاء الجنس البشري ، لكنه في الوقت نفسه يُحذّر من مواصلة تطوير الذكاء الاصطناعي الذي قد يُثبِتُ بأنه خطأ فادح . في جلسة “سؤال و جواب” مطولة عُقِدت في Reddit ، أَوْضَح هوكينج كيف أن الذكاء الاصطناعي هو أكبر تهديد وجودي للبشرية :

الخطر الحقيقي مع الذكاء الاصطناعي ليس الخُبْث ولكن الكفاءة ، و الذكاء الاصطناعي فائق الذكاء سيكون جيدًا للغاية في تحقيق أهدافه ، و في حال لم يتم محاذاة تلك الأهداف مع أهدافنا ، فنحن في مأزق .

من المحتمل بأنك لست كارهًا للنمل الذي يخطو على النمل بناءًا على الخُبْث ، و لكن إذا كنت أنت المسؤول عن مشروع الطاقة الكهرومائية الصديقة للبيئة ، و قمت بغمر عشٍ للنمل في منطقة ما ، هذا سيء للغاية بالنسبة للنمل . دعونا لا نقوم بوضع البشرية في مثل موقِفِ هذا النمل .

إذا أصبحت آلات الذكاء الاصطناعي ذكية ، فإننا قد نواجه إنفجارًا للذكاء ، بحيث أن الآلات تطور القدرة على هندسة نفسها حتى تكونَ أكثر ذكاءًا بكثير ، وهذا قد يؤدي في نهاية المطاف إلى تَفَوُّقِ ذكاءِ هذه الآلات على ذكائنا بدرجةٍ أكبر من تَفَوُّقِ ذكائنا على ذكاء الحلزون .

يتنبأ عالم الكونيات بـ إن لم تقم آلاتنا بقتلنا ، قد نقتل نحن أنفسنا .

خلال جولةِ متحف العلوم في لندن ، هوكينج مُحذِّرًا من أنَّ الحرب النووية الكبرى ستكون نهاية الحضارة البشرية و حَثَّ هوكينج الناس على أن يكونوا أكثر تعاطفًا ، بالنظر إلى أن العدوان هو أكبر فشل للعِرق البشري و الذي يهدد بدوره إلى تدمير البشرية .

The Independent اقتبست قول العالِم :

الفشل البشري و أرغَبُ بشدة تصحيحَ ذلك لـ “العدوان” ، ربما كان العدوان هو ميزة البقاء على قيد الحياة في حِقْبة رجل الكهف ، للحصول على المزيد من الغذاء أو على إقليم ما أو على شريكٍ له جزءٌ تناسلي للإنجاب ، و لكن هذا يُهددُ بتدميرنا جميعًا الآن .

الذكاء و العدوان لديهما القدرة على تدميرنا ، و لكن ما معنى هذا بالنسبةِ لفرصِ تدمير البشرية من قبل الفضائيين ؟ منذ عدة سنوات قليلة مضت ، حذَّر هوكينج بأن في حالة وجود حضارات فضائية ذكية و أكثر تقدمًا فإنها ستكونُ سيئةَ التصرف و  لن تكون ودودة تجاه بشرٍ أقل تقدمًا من الناحية التكنولوجية ، و لن يكونَ لديهم مشكلة في احتلال و استعمار الكوكب ، و في النهاية القضاء على كل العِرق البشري [دَوَّن هوكينج هذا في نيسان 2010] .

إذا قام الفضائيون بزيارتنا في أي وقت ، أعتقد أن النتيجة ستكون بقَدْرِ نتيجة عندما هبط ‘كريستوفور كولومبوس’ لأول مرة في أمريكا و التي لم تَسِرْ بشكل جيد بالنسبة للأمريكيين الأصليين ، كالفضائيين المتقدمين الذين ربما أصبحوا مثل البَدو الرُّحَّل ، أن يستعمروا أو يحتلوا أي كواكبَ يمكنُ الوصولُ إليها ، إذا كان الأمر كذلك ، فمن المنطقي بالنسبة لهم استغلال كل كوكب جديد للحصول على المواد اللازمة لبناء المزيد من سفن الفضاء ليتمكنوا من المضي قُدمًا ، من يدري كيف ستكون حدود ذلك ؟

خلال حدث إعلامي في الجمعية الملكية في لندن ؛ تموز/2015 ، أعْرَبَ هوكينج عن مخاوفه مرة أخرى :

نحن لا نعلم الكثير عن الفضائيين ، و لكن نعلم عن البشر ، إذا نظرتم إلى التاريخ لرأيتم أن التواصل بين البشر و الكائنات الأقل ذكاءًا كان في كثير من الأحيان كارثيًا من وجهة نظرهم ، و الإلتقاء بين الحضارات مع التكنولوجيا المتقدمة ضد البدائية قد جرت بشكل سيء بالنسبة للأقل تقدمًا . الحضارة التي تقوم بقراءة أحد رسائلنا قد تكون متقدمة عنا ببلايين السنين ، فإذا كان الأمر كذلك ، قد لا يقوموا بالنظر إلينا كشيء له قيمة كمثل رؤيتنا للبكتيريا .

فريق آي ثينك للترجمة  

ترجمة : Amer Saeed Jr.

المصدر : http://churchandstate.org.uk/2016/06/stephen-hawking-warns-robots-nuclear-war-aliens-may-wipe-out-humanity-in-less-than-100-years/

شاهد أيضاً

428614_316794891717815_1000016192001462_880491_800281164_n

أشهر50 مقولة لجلال الدين الرومي

كم هم سعداء أولئك الذين يتخلصون من الأغلال التي ترسخ بها حياتهم. ما تبحث عنه …

أضف تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *