Rendering of human on geometric element technology background represent artificial intelligence Getty Images

منع حدوث نهاية العالم بسبب الذكاء الإصطناعي

ينيويورك ـ لم تعد التطورات الحديثة في الذكاء الاصطناعي شيئاً مثيراً. يقوم الذكاء الاصطناعي بتحويل كل قطاعات المجتمع تقريباً، من النقل إلى الطب إلى الدفاع. لذلك ينبغي الانتباه إلى ما سيحدث عندما سيصبح الذكاء الاصطناعي أكثر تقدما مما هو عليه بالفعل.

المنظور المروع هو أن الآلات التي يقودها الذكاء الاصطناعي سوف تفوق الإنسانية وستسيطر على العالم وتقتلنا جميعًا. وينتج هذا السيناريو في الخيال العلمي في كثير من الأحيان، ومن السهل رفضه، بالنظر إلى أن البشر يظل مسيطرا بقوة. لكن العديد من خبراء الذكاء الاصطناعي يأخذون المنظور المروع على محمل الجد، وهم على حق في القيام بذلك. يجب على بقية المجتمع فعل نفس الشيء.

لفهم ما هو على المحك، والنظر في التمييز بين "الذكاء الاصطناعي الضيق" و "الذكاء الاصطناعي العام" (AGI). يمكن للذكاء الاصطناعي الضيق أن يعمل فقط في مجال واحد أو عدد قليل من النطاقات في كل مرة، لذلك في حين أنه قد يتفوق على البشر في مهام محددة، فإنه يظل تحت السيطرة البشرية.

وعلى النقيض من ذلك، يمكن أن يكون "الذكاء الاصطناعي العام" السبب عبر نطاق واسع من المجالات، وبالتالي يمكن أن يكرر العديد من المهارات الفكرية البشرية، مع الاحتفاظ بجميع مزايا أجهزة الكمبيوتر، مثل استدعاء الذاكرة بشكل مثالي. بتشغيل أجهزة الكمبيوتر المتطورة، يمكن "للذكاء الاصطناعي العام" أن يتفوق على الإدراك البشري. في الواقع، من الصعب تصور حدود أعلى لكيفية أن يصبح "الذكاء الاصطناعي العام" متقدما.

كما هو الحال ، فإن معظم الذكاء الاصطناعي ضيق. وبالفعل، فإن أكثر الأنظمة الحالية تطورا ليس لديها سوى كميات محدودة من العمومية. على سبيل المثال، في حين كان نظام AlphaZero من Google     DeepMind  قادراً على إتقان Go وتشيس و شوجي- مما جعله أكثر عمومية من معظم أنظمة الذكاء الاصطناعي، والتي لا يمكن تطبيقها إلا على نشاط واحد محدد - فقد أثبتت قدرتها فقط ضمن الحدود المسطرة من بعض ألعاب اللوحة المنظمة للغاية.

كثير من الناس العارفين يرفضون احتمال تقدم الذكاء الاصطناعي العام. يعتقد البعض، مثل سيلمر برينكسجورد من معهد البوليتكنيك و درو مكديرموت من جامعة ييل، يجادلون أنه من المستحيل أن يفوق الذكاء الاصطناعي الإنسانية. ويرى آخرون، مثل مارغريت أ. بودن من جامعة ساسكس وأورن إتزيوني من معهد ألن للذكاء الاصطناعي، أن الذكاء الاصطناعي من المستوى البشري قد يكون ممكنا في المستقبل البعيد، لكن من السابق لأوانه البدء في القلق بشأنه الآن.

HOLIDAY SALE: PS for less than $0.7 per week
PS_Sales_Holiday2024_1333x1000

HOLIDAY SALE: PS for less than $0.7 per week

At a time when democracy is under threat, there is an urgent need for incisive, informed analysis of the issues and questions driving the news – just what PS has always provided. Subscribe now and save $50 on a new subscription.

Subscribe Now

إن هؤلاء المتشككين ليسوا أرقامًا هامشية، مثل السواعد التي تحاول أن تشكك في علم تغير المناخ. هم علماء متميزون في علوم الكمبيوتر والمجالات ذات الصلة، ويجب أخذ آرائهم على محمل الجد.

لكن علماء بارزين آخرين - من بينهم ديفيد ج. تشالمرز من جامعة نيويورك، وجامعة ييل ألان دافو وستيوار راسيل من جامعة كاليفورنيا، بيركلي  ونيك بوستروم من جامعة أكسفورد، ورومان يامبولسكي من جامعة لويزفيل - يشعرون بالقلق من أن الذكاء الاصطناعي العام يشكل تهديدًا خطيرًا أو حتميًا للإنسانية. ومع تصفيق الخبراء على جانبي النقاش، ينبغي علينا التحلي بعقل منفتح.

علاوة على ذلك، الذكاء الاصطناعي العام هو محور البحوث والتنمية الهامة. أكملت مؤخراً دراسة استقصائية لمشروعات الذكاء الاصطناعي العام و R&D، حددت 45 مشروعًا في 30 دولة في ست قارات. وتستند العديد من المبادرات النشطة في الشركات الكبرى مثل بايدو وفيسبوك وجوجل ومايكروسوفت وتينسنت، وفي الجامعات الكبرى مثل كارنيجي ميلون، وهارفارد، وستانفورد، فضلا عن الأكاديمية الصينية للعلوم. سيكون من الحكمة ببساطة الافتراض أنه لن ينجح أي من هذه المشاريع.

هناك طريقة أخرى للتفكير في التهديد المحتمل للذكاء الاصطناعي العام وهي مقارنتها بمخاطر كارثية أخرى. في تسعينات القرن الماضي، رأى الكونجرس الأمريكي أنه من المناسب أن تتعقب ناسا الكويكبات الضخمة التي يمكن أن تصطدم بالأرض، على الرغم من أن احتمالات حدوث ذلك تبلغ حوالي واحد في 5000 كل قرن. مع الذكاء الاصطناعي العام، قد تكون احتمالية وقوع كارثة خلال القرن المقبل عالية مثل واحد في المائة، أو حتى واحد من كل عشرة، استنادا إلى وتيرة البحث والتطوير وقلق الخبراء.

السؤال إذن هو ماذا يجب فعله حيال ذلك. بالنسبة للمبتدئين، نحتاج إلى ضمان إجراء البحث والتطوير بطريقة مسؤولة وآمنة وأخلاقية. سيتطلب ذلك حوارًا أعمق بين العاملين في مجال الذكاء الاصطناعي وصانعي السياسات وعلماء الاجتماع والمواطنين المعنيين. أولئك الموجودون في الميدان يعرفون التكنولوجيا وسيكونون هم من يصممونها وفقاً للمعايير المتفق عليها؛ لكن يجب ألا يقرروا وحدهم طبيعة تلك المعايير. العديد من الأشخاص الذين يقومون بتطوير تطبيقات الذكاء الاصطناعي غير معتاد على التفكير في الآثار الاجتماعية لهذا العمل. لكي يتغير ذلك، يجب أن يواجهوا وجهات نظر خارجية.

وسيتعين على صانعي السياسات أيضا التعامل مع الأبعاد الدولية للمبادرة. في الوقت الحالي، يتم تنفيذ الجزء الأكبر من الأبحاث والتطوير في الذكاء الاصطناعي العام في الولايات المتحدة وأوروبا والصين، لكن الكثير من الشفرات مفتوح المصدر، مما يعني أن العمل يمكن أن يتم من أي مكان. لذا، فإن وضع المعايير والقواعد الأخلاقية الأساسية هو في نهاية المطاف وظيفة للمجتمع الدولي بأكمله، على الرغم من أن محاور البحث والتطوير ينبغي أن تأخذ زمام المبادرة.

وبالنظر إلى الأمام، يمكن لبعض الجهود الرامية إلى معالجة المخاطر التي يشكلها الذكاء الاصطناعي العام أن تتابع مبادرات السياسات التي وضعت بالفعل من أجل منظمة العفو الدولية الضيقة، مثل التجمع الجديد من الحزبين الجمهوري والديمقراطي الذي أطلقه جون ديلاني، عضو الكونغرس الديمقراطي من ولاية ماريلاند. هناك العديد من الفرص للتآزر بين أولئك الذين يعملون على المخاطر القصيرة الأجل للذكاء الاصطناعي الضيق وتلك التي تفكر في المدى الطويل.

ولكن بغض النظر عما إذا كان الذكاء الاصطناعي الضيق والذكاء الاصطناعي العام يعتبران معاً أو بشكل منفصل، فإن الأمر الأكثر أهمية هو أننا نتخذ الآن إجراءات بناءة لتقليل مخاطر حدوث كارثة على الطريق. هذه ليست مهمة يمكننا أن نأمل في إكمالها في اللحظة الأخيرة.

https://prosyn.org/2KfM2Gwar