ريو دي جانيرو- ربما ستدخل الأشهر الأخيرة الذاكرة على أنها اللحظة التي ساد فيها الذكاء الاصطناعي التنبئي. ورغم أن خوارزميات التنبؤ استُخدمت على مدى عقود، إلا أن إطلاق تطبيقات مثل OpenAI’s ChatGPT3- وتكاملها السريع مع محرك بحث "بينغ" الذي تديره شركة "مايكروسوفت"- ربما أطلق العنان لتجاوزات فيما يتعلق بالذكاء الاصطناعي سهل الاستخدام. إذ في غضون أسابيع من إصدار ChatGPT3، اجتذب التطبيق بالفعل 100 مليون مستخدم شهريًا؛ وقد عانى الكثير منهم بالفعل من سلبيات التطبيق- بما في ذلك الإهانات، والتهديدات، والمعلومات المضللة، وقدرة مثبتة على كتابة الشفرات الضارة.
إن روبوتات الدردشة التي تُولد العناوين الرئيسية هي مجرد غيض من فيض. إذ تتقدم نظم الذكاء الاصطناعي الخاصة بتوليد النصوص، والكلام، والفن، والفيديوهات بوتيرة سريعة، مما له آثار بعيدة المدى على الحوكمة، والتجارة، والحياة المدنية. وليس من المستغرب أن يتدفق رأس المال إلى القطاع، حيث تستثمر الحكومات والشركات على حد سواء في الشركات الناشئة لتطوير أحدث أدوات التعلم الآلي ونشرها. وستجمع هذه التطبيقات الجديدة بين البيانات التاريخية، والتعلم الآلي، ومعالجة اللغات الطبيعية، والتعلم العميق لتحديد احتمالية الأحداث المستقبلية.
وبصورة حاسمة، لن يقتصر اعتماد برمجيات معالجة اللغات الطبيعية الجديدة ونُظم الذكاء الاصطناعي التوليدي على البلدان والشركات الغنية التي قادت عملية إنشائها مثل، "غوغل"، و"ميتا"، و"مايكروسوفت". بل تنتشر هذه التقنيات بالفعل في الأماكن منخفضة ومتوسطة الدخل، حيث تُقدم التحليلات التنبؤية لكل شيء، بما في ذلك الحد من عدم المساواة في المناطق الحضرية ومعالجة الأمن الغذائي وعودًا هائلة للحكومات والشركات والمنظمات غير الحكومية التي تعاني من ضائقة مالية، والتي تسعى إلى تحسين الكفاءة، وإطلاق العنان للمزايا الاجتماعية والاقتصادية
ولكن المشكلة هي أنه لم يكن هناك اهتمام كاف بالعوامل الخارجية السلبية المحتملة والآثار غير المقصودة لهذه التقنيات. ويتمثل الخطر الأكثر وضوحًا في أن الأدوات التنبؤية القوية غير المسبوقة ستعزز قدرات الأنظمة الاستبدادية فيما يتعلق بالمراقبة.
إن أحد الأمثلة التي يتم الاستشهاد بها على نطاق واسع هو "نظام الائتمان الاجتماعي" في الصين، الذي يستخدم السجلات الائتمانية، والإدانات الجنائية، والسلوك عبر الإنترنت وغيرها من البيانات لإسناد درجة لكل شخص في البلاد. ويمكن لهذه النتائج بعد ذلك تحديد ما إذا كان يمكن لشخص ما تأمين قرض، أو الوصول إلى مدرسة جيدة، أو السفر بالسكك الحديدية أو جوا، وما إلى ذلك. وعلى الرغم من وصف نظام الصين على أنه أداة لتحسين الشفافية، فإن الوجه الآخر للنظام هو الرقابة الاجتماعية.
ومع ذلك، حتى حينما تستخدم الحكومات الديمقراطية ذات النوايا الحسنة ظاهريًا، والشركات التي تركز على التأثير الاجتماعي، والمنظمات غير الربحية التقدمية الأدوات التنبؤية، يمكن لهذه الأخيرة أن تولد نتائج دون المستوى الأمثل. ويمكن أن تؤدي عيوب التصميم في الخوارزميات الأساسية ومجموعات البيانات المتحيزة إلى انتهاكات الخصوصية والتمييز القائم على الهوية. لقد أصبح هذا بالفعل قضية صارخة في العدالة الجنائية، حيث تعمل التحليلات التنبؤية بصورة روتينية على إدامة الفوارق العرقية والاجتماعية والاقتصادية. فعلى سبيل المثال، صُمم نظام ذكاء اصطناعي لمساعدة القضاة الأمريكيين على تقييم احتمالية العودة إلى الإجرام، والذي حدد خطأً أن المدعى عليهم من السود معرضون لخطر إعادة الإجرام أكثر بكثير من نظرائهم البيض.
At a time when democracy is under threat, there is an urgent need for incisive, informed analysis of the issues and questions driving the news – just what PS has always provided. Subscribe now and save $50 on a new subscription.
Subscribe Now
وتتزايد أيضًا المخاوف بشأن الطرق التي يمكن للذكاء الاصطناعي من خلالها تعميق التفاوتات في مكان العمل. وحتى الآن، تعمل الخوارزميات التنبؤية على زيادة الكفاءة والأرباح بطرق تفيد المديرين والمساهمين على حساب العمال العاديين (خاصة في اقتصاد الوظائف المؤقتة).
وفي كل هذه الأمثلة، تحمل نظم الذكاء الاصطناعي صورة مغلوطة عن المجتمع، مما يعكس تحيزاتنا وعدم المساواة ويضخمها. وكما قالت الباحثة في مجال التكنولوجيا، نانجيرا سامبولي، في ملاحظة لها، غالبا ما تفاقم الرقمنة المشكلات السياسية، والاجتماعية، والاقتصادية القائمة مسبقًا بدلاً من تحسينها.
يجب أن يكون الحماس لاعتماد الأدوات التنبؤية متوازناً مع الاعتبار المستنير والأخلاقي لآثارها المقصودة وغير المقصودة. وعندما تكون تأثيرات الخوارزميات القوية محل خلاف أو غير معروفة، فإن المبدأ الوقائي ينصح بعدم نشرها.
يجب ألا ندع الذكاء الاصطناعي يصبح مجالًا آخر يطلب فيه صانعو القرار الصفح بدلاً من الإذن. لهذا السبب دعا مفوض الأمم المتحدة السامي لحقوق الإنسان وآخرون إلى وقف اختياري لاعتماد نظم الذكاء الاصطناعي حتى يتم تحديث الأطر الأخلاقية والمتعلقة بحقوق الإنسان لمراعاة أضرارها المحتملة.
وستتطلب صياغة الأطر المناسبة التوصل إلى توافق في الآراء بشأن المبادئ الأساسية التي ينبغي أن تساعد في تصميم أدوات الذكاء الاصطناعي التنبؤية واستخدامها. ولحسن الحظ، أدى السباق نحو الذكاء الاصطناعي إلى موجة موازية من الأبحاث، والمبادرات، والمعاهد، والشبكات فيما يتعل بالأخلاق. وفي حين تولى المجتمع المدني زمام المبادرة، فقد شاركت الكيانات الحكومية الدولية مثل منظمة التعاون الاقتصادي والتنمية واليونسكو في الجهود المبذولة.
ودأبت الأمم المتحدة على بناء معايير عالمية للذكاء الاصطناعي الأخلاقي منذ عام 2021 على الأقل. وفضلا عن ذلك، اقترح الاتحاد الأوروبي قانونًا للذكاء الاصطناعي- وهو أول جهد من هذا القبيل تبذله جهة تنظيمية رئيسية- ومن شأنه أن يمنع استخدامات معينة (مثل تلك التي تُشبه نظام الائتمان الاجتماعي في الصين)، وأن يخضع التطبيقات الأخرى عالية المخاطر لمتطلبات ومراقبة محددة.
وحتى الآن، تركزت هذه المناقشة إلى حد كبير في أمريكا الشمالية وأوروبا الغربية. ولكن البلدان ذات الدخل المنخفض والمتوسط لديها احتياجاتها الأساسية ومخاوفها وأوجه عدم المساواة الاجتماعية التي يجب مراعاتها. وهناك أبحاث كثيرة تُظهر أن التقنيات التي طورتها الأسواق من أجل هذه الأخيرة في الاقتصادات المتقدمة غالبًا ما تكون غير مناسبة للاقتصادات الأقل نموًا.
وإذا استُوردت أدوات الذكاء الاصطناعي الجديدة واستخدمت على نطاق واسع قبل وضع هياكل الحوكمة اللازمة، فمن السهل أن تضر أكثر مما تنفع. ويجب النظر في كل هذه القضايا إذا كنا سنبتكر مبادئ عالمية حقيقية لحوكمة الذكاء الاصطناعي.
وإدراكًا لهذه الثغرات، أطلق معهد Igarapé ومنظمة New America مؤخرًا فريق عمل عالمي جديد معني بالتحليلات التنبؤية للأمن والتنمية. وستجمع فرقة العمل بين دعاة الحقوق الرقمية، وشركاء القطاع العام، ورجال الأعمال في مجال التكنولوجيا، وعلماء الاجتماع من الأمريكتين، وأفريقيا، وآسيا، وأوروبا، بهدف تحديد المبادئ الأولى لاستخدام التقنيات التنبؤية في مجالي السلامة العامة والتنمية المستدامة في جنوب الكرة الأرضية.
إن صياغة هذه المبادئ والمعايير هي مجرد خطوة أولى. وسيكون التحدي الأكبر هو حشد التعاون والتنسيق اللازمين على المستوى الدولي والوطني ودون الوطني لتنفيذها في القانون والممارسة. وفي ظل الاندفاع العالمي نحو تطوير أدوات الذكاء الاصطناعي التنبؤية الجديدة ونشرها، تعد أطر منع الضرر ضرورية لضمان مستقبل آمن ومزدهر ومستدام ومتمحور حول الإنسان.
To have unlimited access to our content including in-depth commentaries, book reviews, exclusive interviews, PS OnPoint and PS The Big Picture, please subscribe
At the end of a year of domestic and international upheaval, Project Syndicate commentators share their favorite books from the past 12 months. Covering a wide array of genres and disciplines, this year’s picks provide fresh perspectives on the defining challenges of our time and how to confront them.
ask Project Syndicate contributors to select the books that resonated with them the most over the past year.
ريو دي جانيرو- ربما ستدخل الأشهر الأخيرة الذاكرة على أنها اللحظة التي ساد فيها الذكاء الاصطناعي التنبئي. ورغم أن خوارزميات التنبؤ استُخدمت على مدى عقود، إلا أن إطلاق تطبيقات مثل OpenAI’s ChatGPT3- وتكاملها السريع مع محرك بحث "بينغ" الذي تديره شركة "مايكروسوفت"- ربما أطلق العنان لتجاوزات فيما يتعلق بالذكاء الاصطناعي سهل الاستخدام. إذ في غضون أسابيع من إصدار ChatGPT3، اجتذب التطبيق بالفعل 100 مليون مستخدم شهريًا؛ وقد عانى الكثير منهم بالفعل من سلبيات التطبيق- بما في ذلك الإهانات، والتهديدات، والمعلومات المضللة، وقدرة مثبتة على كتابة الشفرات الضارة.
إن روبوتات الدردشة التي تُولد العناوين الرئيسية هي مجرد غيض من فيض. إذ تتقدم نظم الذكاء الاصطناعي الخاصة بتوليد النصوص، والكلام، والفن، والفيديوهات بوتيرة سريعة، مما له آثار بعيدة المدى على الحوكمة، والتجارة، والحياة المدنية. وليس من المستغرب أن يتدفق رأس المال إلى القطاع، حيث تستثمر الحكومات والشركات على حد سواء في الشركات الناشئة لتطوير أحدث أدوات التعلم الآلي ونشرها. وستجمع هذه التطبيقات الجديدة بين البيانات التاريخية، والتعلم الآلي، ومعالجة اللغات الطبيعية، والتعلم العميق لتحديد احتمالية الأحداث المستقبلية.
وبصورة حاسمة، لن يقتصر اعتماد برمجيات معالجة اللغات الطبيعية الجديدة ونُظم الذكاء الاصطناعي التوليدي على البلدان والشركات الغنية التي قادت عملية إنشائها مثل، "غوغل"، و"ميتا"، و"مايكروسوفت". بل تنتشر هذه التقنيات بالفعل في الأماكن منخفضة ومتوسطة الدخل، حيث تُقدم التحليلات التنبؤية لكل شيء، بما في ذلك الحد من عدم المساواة في المناطق الحضرية ومعالجة الأمن الغذائي وعودًا هائلة للحكومات والشركات والمنظمات غير الحكومية التي تعاني من ضائقة مالية، والتي تسعى إلى تحسين الكفاءة، وإطلاق العنان للمزايا الاجتماعية والاقتصادية
ولكن المشكلة هي أنه لم يكن هناك اهتمام كاف بالعوامل الخارجية السلبية المحتملة والآثار غير المقصودة لهذه التقنيات. ويتمثل الخطر الأكثر وضوحًا في أن الأدوات التنبؤية القوية غير المسبوقة ستعزز قدرات الأنظمة الاستبدادية فيما يتعلق بالمراقبة.
إن أحد الأمثلة التي يتم الاستشهاد بها على نطاق واسع هو "نظام الائتمان الاجتماعي" في الصين، الذي يستخدم السجلات الائتمانية، والإدانات الجنائية، والسلوك عبر الإنترنت وغيرها من البيانات لإسناد درجة لكل شخص في البلاد. ويمكن لهذه النتائج بعد ذلك تحديد ما إذا كان يمكن لشخص ما تأمين قرض، أو الوصول إلى مدرسة جيدة، أو السفر بالسكك الحديدية أو جوا، وما إلى ذلك. وعلى الرغم من وصف نظام الصين على أنه أداة لتحسين الشفافية، فإن الوجه الآخر للنظام هو الرقابة الاجتماعية.
ومع ذلك، حتى حينما تستخدم الحكومات الديمقراطية ذات النوايا الحسنة ظاهريًا، والشركات التي تركز على التأثير الاجتماعي، والمنظمات غير الربحية التقدمية الأدوات التنبؤية، يمكن لهذه الأخيرة أن تولد نتائج دون المستوى الأمثل. ويمكن أن تؤدي عيوب التصميم في الخوارزميات الأساسية ومجموعات البيانات المتحيزة إلى انتهاكات الخصوصية والتمييز القائم على الهوية. لقد أصبح هذا بالفعل قضية صارخة في العدالة الجنائية، حيث تعمل التحليلات التنبؤية بصورة روتينية على إدامة الفوارق العرقية والاجتماعية والاقتصادية. فعلى سبيل المثال، صُمم نظام ذكاء اصطناعي لمساعدة القضاة الأمريكيين على تقييم احتمالية العودة إلى الإجرام، والذي حدد خطأً أن المدعى عليهم من السود معرضون لخطر إعادة الإجرام أكثر بكثير من نظرائهم البيض.
HOLIDAY SALE: PS for less than $0.7 per week
At a time when democracy is under threat, there is an urgent need for incisive, informed analysis of the issues and questions driving the news – just what PS has always provided. Subscribe now and save $50 on a new subscription.
Subscribe Now
وتتزايد أيضًا المخاوف بشأن الطرق التي يمكن للذكاء الاصطناعي من خلالها تعميق التفاوتات في مكان العمل. وحتى الآن، تعمل الخوارزميات التنبؤية على زيادة الكفاءة والأرباح بطرق تفيد المديرين والمساهمين على حساب العمال العاديين (خاصة في اقتصاد الوظائف المؤقتة).
وفي كل هذه الأمثلة، تحمل نظم الذكاء الاصطناعي صورة مغلوطة عن المجتمع، مما يعكس تحيزاتنا وعدم المساواة ويضخمها. وكما قالت الباحثة في مجال التكنولوجيا، نانجيرا سامبولي، في ملاحظة لها، غالبا ما تفاقم الرقمنة المشكلات السياسية، والاجتماعية، والاقتصادية القائمة مسبقًا بدلاً من تحسينها.
يجب أن يكون الحماس لاعتماد الأدوات التنبؤية متوازناً مع الاعتبار المستنير والأخلاقي لآثارها المقصودة وغير المقصودة. وعندما تكون تأثيرات الخوارزميات القوية محل خلاف أو غير معروفة، فإن المبدأ الوقائي ينصح بعدم نشرها.
يجب ألا ندع الذكاء الاصطناعي يصبح مجالًا آخر يطلب فيه صانعو القرار الصفح بدلاً من الإذن. لهذا السبب دعا مفوض الأمم المتحدة السامي لحقوق الإنسان وآخرون إلى وقف اختياري لاعتماد نظم الذكاء الاصطناعي حتى يتم تحديث الأطر الأخلاقية والمتعلقة بحقوق الإنسان لمراعاة أضرارها المحتملة.
وستتطلب صياغة الأطر المناسبة التوصل إلى توافق في الآراء بشأن المبادئ الأساسية التي ينبغي أن تساعد في تصميم أدوات الذكاء الاصطناعي التنبؤية واستخدامها. ولحسن الحظ، أدى السباق نحو الذكاء الاصطناعي إلى موجة موازية من الأبحاث، والمبادرات، والمعاهد، والشبكات فيما يتعل بالأخلاق. وفي حين تولى المجتمع المدني زمام المبادرة، فقد شاركت الكيانات الحكومية الدولية مثل منظمة التعاون الاقتصادي والتنمية واليونسكو في الجهود المبذولة.
ودأبت الأمم المتحدة على بناء معايير عالمية للذكاء الاصطناعي الأخلاقي منذ عام 2021 على الأقل. وفضلا عن ذلك، اقترح الاتحاد الأوروبي قانونًا للذكاء الاصطناعي- وهو أول جهد من هذا القبيل تبذله جهة تنظيمية رئيسية- ومن شأنه أن يمنع استخدامات معينة (مثل تلك التي تُشبه نظام الائتمان الاجتماعي في الصين)، وأن يخضع التطبيقات الأخرى عالية المخاطر لمتطلبات ومراقبة محددة.
وحتى الآن، تركزت هذه المناقشة إلى حد كبير في أمريكا الشمالية وأوروبا الغربية. ولكن البلدان ذات الدخل المنخفض والمتوسط لديها احتياجاتها الأساسية ومخاوفها وأوجه عدم المساواة الاجتماعية التي يجب مراعاتها. وهناك أبحاث كثيرة تُظهر أن التقنيات التي طورتها الأسواق من أجل هذه الأخيرة في الاقتصادات المتقدمة غالبًا ما تكون غير مناسبة للاقتصادات الأقل نموًا.
وإذا استُوردت أدوات الذكاء الاصطناعي الجديدة واستخدمت على نطاق واسع قبل وضع هياكل الحوكمة اللازمة، فمن السهل أن تضر أكثر مما تنفع. ويجب النظر في كل هذه القضايا إذا كنا سنبتكر مبادئ عالمية حقيقية لحوكمة الذكاء الاصطناعي.
وإدراكًا لهذه الثغرات، أطلق معهد Igarapé ومنظمة New America مؤخرًا فريق عمل عالمي جديد معني بالتحليلات التنبؤية للأمن والتنمية. وستجمع فرقة العمل بين دعاة الحقوق الرقمية، وشركاء القطاع العام، ورجال الأعمال في مجال التكنولوجيا، وعلماء الاجتماع من الأمريكتين، وأفريقيا، وآسيا، وأوروبا، بهدف تحديد المبادئ الأولى لاستخدام التقنيات التنبؤية في مجالي السلامة العامة والتنمية المستدامة في جنوب الكرة الأرضية.
إن صياغة هذه المبادئ والمعايير هي مجرد خطوة أولى. وسيكون التحدي الأكبر هو حشد التعاون والتنسيق اللازمين على المستوى الدولي والوطني ودون الوطني لتنفيذها في القانون والممارسة. وفي ظل الاندفاع العالمي نحو تطوير أدوات الذكاء الاصطناعي التنبؤية الجديدة ونشرها، تعد أطر منع الضرر ضرورية لضمان مستقبل آمن ومزدهر ومستدام ومتمحور حول الإنسان.
ترجمة: نعيمة أبروش Translated by Naaima Abarouch