غيّر البروفيسور جيفري هينتون، الملقب بـ”الأب الروحي للذكاء الاصطناعي“، توقعاته بشأن احتمال أن يصبح الذكاء الاصطناعي هو النهاية المدمرة للبشرية.
وفي حديثه في برنامج ”توداي“ على راديو بي بي سي 4، قال في حديثه في برنامج ”توداي“ على راديو بي بي بي سي 4، إن تقديره السابق الذي كان يشير إلى أن احتمال أن يقضي الذكاء الاصطناعي على البشرية بنسبة 10% قد ارتفع إلى 20%.
التوقعات المخيفة حول سيطرة الذكاء الاصطناعي
ووفقاً لصحيفة الجارديان، عندما سُئل هينتون عما إذا كان موقفه قد تغير منذ تعليقاته السابقة، أجاب: ”ليس حقاً، 10 إلى 20 في المائة [في المائة]“. وأشار مقدم البرنامج إلى هذا التحول المثير للقلق، مسلطاً الضوء على الاحتمالات المتزايدة.
أجرى هينتون، في وقت لاحق، تشبيهًا. وصوّر أنه لا يوجد سوى أمثلة قليلة على ”شيء أقل ذكاءً“ يسيطر على كيان أكثر ذكاءً. وضرب مثالاً بالأم والطفل الرضيع.
وفي إشارة إلى موقع البشرية في هذه المعادلة، طلب هينتون من المستمعين أن يتخيلوا أنفسهم وطفل في الثالثة من عمره. وقال إننا جميعاً سنكون أطفالاً في الثالثة من العمر بحلول ذلك الوقت.
تاريخ من المناصرة القلقة
لطالما كان هينتون من أشد المنتقدين لتطوير الذكاء الاصطناعي غير المنضبط. وفي وقت سابق من هذا العام، استقال من منصبه في جوجل للتعبير عن مخاوفه بحرية.
قال هينتون بعد أن أعلن استقالته: ”فكرة أن هذه الأشياء يمكن أن تصبح أكثر ذكاءً من البشر – كان عدد قليل من الناس يعتقدون ذلك“.
وقال الأب الروحي للذكاء الاصطناعي إن معظم الناس كانوا يعتقدون أن هذا التحول بعيد المنال. وأضاف أن ذلك يمكن أن يحدث بعد 30 إلى 50 عاماً من الآن أو حتى أكثر من ذلك.
هينتون يتحدث عن كارثة السلامة في OpenAI
تناول هينتون أيضاً الصراعات الداخلية في OpenAI، ولا سيما الإطاحة مؤخراً بالرئيس التنفيذي سام ألتمان. وأثنى على تلميذه السابق، إيليا سوتسكيفر، أحد الشخصيات التي كانت وراء الانقلاب في مجلس الإدارة.
قال هينتون في أكتوبر 2024: ”أنا فخور بشكل خاص بحقيقة أن أحد طلابي أقال سام ألتمان“، رافضاً الإفصاح عن المزيد.
وأوضح لاحقاً الأسباب التي دفعت سوتسكيفر إلى الإصرار على ضرورة سلامة الذكاء الاصطناعي. وفقاً للحائز على جائزة نوبل لعام 2024، تم إنشاء OpenAI مع التركيز بشكل كبير على السلامة. ومع ذلك، مع مرور الوقت، بدا أن ألتمان كان يهتم فقط بالأرباح وليس بالسلامة، مشيراً إلى أنه كان سيناريو ”مؤسفاً“ للغاية.
دعوة للحذر
بمجرد النظر إلى مكانة وخبرة هينتون، فإن تحذيراته تُعد بمثابة دعوة إنذار لقادة التكنولوجيا والمشرعين على حد سواء. وبالنظر إلى أن الذكاء الاصطناعي يتغير بسرعة، فإن احتمالاته المنقحة تؤكد مدى إلحاح الحاجة إلى تطبيق ضوابط صارمة وإرشادات أخلاقية لحماية مستقبل البشرية.