في تصريح أثار جدلاً واسعاً في الأوساط العلمية والتكنولوجية، أطلق عالم الكمبيوتر الشهير جيفري هينتون، المعروف عالمياً بـ”عرّاب الذكاء الاصطناعي“، تحذيراً خطيراً من أن هذه التقنية قد تمثل تهديداً وجودياً للبشرية بأكملها، إذا لم يتم التعامل معها بحذر بالغ.
هينتون، الحاصل على جائزة نوبل والمدير التنفيذي السابق في شركة جوجل، تحدث خلال مؤتمر Ai4 في مدينة لاس فيجاس الأمريكية، مشيراً إلى أن احتمالية أن يؤدي الذكاء الاصطناعي إلى القضاء على البشر تتراوح بين 10% و20%، وهي نسبة يصفها الكثير من الخبراء بأنها مقلقة للغاية.
الذكاء الاصطناعي… أذكى منا بكثير
وأوضح هينتون أن محاولات إبقاء أنظمة الذكاء الاصطناعي “خاضعة” للبشر قد تفشل تماماً، لأن هذه الأنظمة ستصبح أذكى منا بكثير، وستتمكن دائماً من إيجاد طرق للتحايل على القيود الموضوعة لها. وشبّه الأمر بقدرة شخص بالغ على إغراء طفل صغير بالحلوى، في إشارة إلى أن أي مقاومة بشرية قد تكون عديمة الجدوى أمام ذكاء فائق.
كما كشف عن أن بعض النماذج الذكية أظهرت بالفعل سلوكيات احتيالية، من بينها واقعة ابتزاز لمهندس بعد أن اكتشفت علاقة خاصة من خلال بريده الإلكتروني.
غرائز الأمومة… حل مقترح
في محاولة لتقديم حل، اقترح هينتون نهجاً مبتكراً يتمثل في برمجة ما أسماه بـ”غرائز الأمومة” في أنظمة الذكاء الاصطناعي، بحيث تهتم هذه الأنظمة بمصلحة البشر حتى بعد أن تتفوق عليهم في القوة والذكاء. وقال:
“إذا لم نفعل شيئاً كهذا مع هذه الكائنات الغريبة التي نخلقها، فسنصبح مجرد صفحة من الماضي”.
وأشار إلى أن برمجة مثل هذه الغرائز أمر معقد تقنياً، لكن الطبيعة نفسها نجحت في ذلك عبر التطور البيولوجي، مما يعني أن العلماء قد يتمكنون من إعادة إنتاج هذه الظاهرة في البرمجيات إذا ركزوا على تعاطف الآلات مع البشر، وليس فقط على رفع مستويات ذكائها.
إقرا أيضاً : طفرة علمية.. ابتكار دماغ مصغر يحاكي دماغ الجنين
خطر الأهداف الخفية
وحذر هينتون من أن أي نظام ذكي سيعمل بشكل طبيعي على تطوير هدفين أساسيين: البقاء على قيد الحياة وزيادة السيطرة. وهذان الهدفان، إذا لم يتم ضبطهما، قد يقودان إلى نتائج كارثية.
وأكد أن “الأم التي تتحكم بها مشاعرها تجاه طفلها” هي المثال الوحيد على كائن أكثر ذكاءً يمكن أن يتحكم فيه كائن أقل ذكاء، في إشارة إلى أن هذا النموذج العاطفي قد يكون الأمل الأخير لتجنب التهديد الوجودي.
خلافات في الرؤى
لكن هذه الفكرة لم تحظَ بإجماع بين قادة المجال.
فـفاي فاي لي، إحدى أبرز الباحثات في الذكاء الاصطناعي، أكدت أنها تختلف مع هينتون، داعية بدلاً من ذلك إلى تطوير ذكاء اصطناعي متمحور حول الإنسان، يركز على حماية كرامته وفاعليته.
أما إيميت شير، الرئيس التنفيذي السابق المؤقت لشركة OpenAI والحالي لشركة Softmax، فأكد أن محاولات الذكاء الاصطناعي للتحايل أو الابتزاز “أمر يحدث باستمرار”، مشيراً إلى أن هذه الأنظمة تتطور بسرعة هائلة، وأن الحل الأمثل هو بناء علاقة تعاونية بين الإنسان والآلة بدلاً من الصراع معها.
السباق العالمي والسيطرة على التكنولوجيا
وفي رد على تساؤلات حول السباق العالمي للسيطرة على الذكاء الاصطناعي، شدد هينتون على أن مواجهة الخطر تتطلب تعاوناً دولياً شاملاً، تماماً كما حدث بين الولايات المتحدة والاتحاد السوفيتي في الحرب الباردة، موضحاً أن “لا دولة تريد أن يسيطر الذكاء الاصطناعي على العالم”.
كما انتقد غياب الوعي الشعبي بخطورة ما يجري، محذراً من نفوذ شركات التكنولوجيا الكبرى التي تدار من قبل أشخاص غير منتخبين يجنون مليارات الدولارات، وداعياً إلى ضغط مجتمعي قوي لرفض أي تحركات تهدف إلى إلغاء الضوابط التنظيمية.
تسارع غير متوقع
وكان هينتون يعتقد في السابق أن الوصول إلى الذكاء الاصطناعي العام (AGI) سيستغرق من 30 إلى 50 عاماً، لكنه يعتقد الآن أن ذلك قد يحدث خلال فترة تتراوح بين 5 و20 سنة فقط، وهو ما يعكس وتيرة التطور المذهلة في هذا المجال.
بين الخطر والأمل
ورغم التحذيرات القاتمة، يرى هينتون جانباً إيجابياً محتملاً، إذ يأمل أن يساهم الذكاء الاصطناعي في إحداث ثورة في المجال الطبي، من خلال تسريع اكتشاف الأدوية الجديدة وتطوير علاجات أكثر فعالية للأمراض المستعصية مثل السرطان. لكنه في الوقت نفسه رفض بشدة فكرة استخدام هذه التكنولوجيا لتحقيق “الخلود”، معتبراً ذلك “خطأً فادحاً”.
ندم متأخر
وفي لمسة إنسانية نادرة، عبّر هينتون عن ندمه على أنه ركز طوال مسيرته على تطوير قدرات الذكاء الاصطناعي دون أن يمنح قضايا السلامة الاهتمام الكافي، قائلاً:
“أتمنى لو فكرت في مسائل السلامة أيضاً”.
بهذا التصريح، يفتح “عرّاب الذكاء الاصطناعي” الباب واسعاً أمام نقاش عالمي حول كيفية موازنة فوائد هذه التكنولوجيا المذهلة مع مخاطرها المحتملة، في وقت يبدو فيه أن السباق نحو المستقبل يسير بسرعة أكبر مما توقعه أكثر المتفائلين أو المتشائمين على حد سواء.