كمبريدج ـ في السنوات القليلة الماضية، خلصت دراسة "الجهاز الأخلاقي" التي يستضيفها "معهد ماساتشوستس للتكنولوجيا" إلى التفضيلات العامة حول الطريقة التي ينبغي أن تتصرف بها تطبيقات الذكاء الاصطناعي في بيئات مختلفة. وقد أظهرت إحدى البيانات أنه عندما تصادف سيارة ذاتية القيادة (AV) سيناريو حياة أو موت، يعتمد رأي المرء حول استجابتها على مكان الشخص، وما يعرفه عن المشاة أو الركاب المعنيين.
على سبيل المثال، في نسخة السيارات الذاتية القيادة المستوحاة من "مشاكل العربات" الكلاسيكية، قد يفضل البعض أن تصطدم السيارة بقاتل مُدان بدلا من إلحاق الأذى بالآخرين، أو أن تصطدم بمواطن بالغ بدلا من طفل. لا يزال البعض الآخر يجادل بأن السيارة الذاتية القيادة يجب أن تجازف لتجنب التمييز القائم على البيانات.
بشكل عام، يتم رفع هذه المعضلات إلى لمحاكم أو إلى التحقيقات التي تجريها الشرطة بعد وقوعها. ولكن في حالة السيارات ذاتية القيادة، سيتم اتخاذ الخيارات في غضون ثواني، وهو وقت غير كاف للتوصل إلى قرار صائب. ما يهم ليس ما نعرفه، ولكن ما تعرفه السيارة. والسؤال المطروح الآن هو: ما هي المعلومات التي ينبغي أن تعرفها السيارة الذاتية القيادة حول الأشخاص من حولها. وهل يجب السماح للشركات بتقديم أنظمة أخلاقية مختلفة سعياً وراء ميزة تنافسية؟
لننظر إلى السيناريو التالي: تتمتع سيارة من الصين بمعايير صنع مختلفة عن سيارة من الولايات المتحدة، ولكن يتم شحنها إلى الولايات المتحدة واستخدامها هناك. تتجه هذه السيارة الصينية الصنع والسيارة الأمريكية الصنع نحو تصادم لا مفر منه. إذا كان لدى سائق السيارة الصينية تفضيلات أخلاقية مختلفة عن سائق السيارة الأمريكية، فما هو النظام الذي يجب أن يسود؟
بالإضافة إلى الاختلافات الثقافية في التفضيلات الأخلاقية، على المرء أيضًا مراعاة الاختلافات في لوائح البيانات في مختلف البلدان. على سبيل المثال، يمكن للسيارة الصينية الصنع الوصول إلى بيانات تسجيل النتائج الاجتماعية، والتي تسمح لخوارزمية صنع القرار الخاصة بها بتضمين معلومات إضافية غير متاحة لشركات صناعة السيارات الأمريكية. يمكن أن تؤدي البيانات الأكثر ثراءً إلى قرارات أفضل وأكثر اتساقًا، ولكن هل تسمح هذه الميزة لنظام ما بإلغاء نظام آخر؟
في الواقع، قبل أن تستعد السيارات ذاتية القيادة للاشتغال، سنحتاج إلى تحديد أين تقع مسؤولية اتخاذ القرارات الخوارزمية، سواء كان ذلك مع السلطات البلدية أو الحكومات الوطنية أو المؤسسات المتعددة الأطراف. والأهم من ذلك، سوف نحتاج إلى أطر جديدة تحكُم هذا التقاطع بين الأعمال والدولة. لا تكمن المشكلة في نتائج السيارات الذاتية القيادة السلبية، بل في كيفية تفاعل الشركات مع الثقافات المختلفة في تطوير ونشر خوارزميات صنع القرار.
At a time when democracy is under threat, there is an urgent need for incisive, informed analysis of the issues and questions driving the news – just what PS has always provided. Subscribe now and save $50 on a new subscription.
Subscribe Now
من السهل أن تتخيل أن جميع الشركات المصنعة للسيارات ذاتية القيادة ستعلن ببساطة عن الأنظمة الأخلاقية التي تهتم بحياة السائق قبل كل شيء، أو التي تسمح للمستخدم بتعديل أطر العمل الأخلاقية الخاصة به. لمنع "مأساة المجتمع" هذه، يجب أن تكون هناك أطر لإقامة الاتصالات وتنسيق القرارات بين السيارات ذاتية القيادة. ولكن من خلال تطوير مثل هذه الأنظمة في سياقات ثقافية مختلفة، سيواجه صناع السياسة ورجال الأعمال مفاهيم ثقافية مختلفة تتعلق بالسيادة والخصوصية والاستقلالية الفردية.
هذا يفرض تحديات إضافية، لأن أنظمة الذكاء الاصطناعي لا تتساهل مع الغموض. يتطلب تصميم تطبيق الذكاء الاصطناعي من البداية خصوصية عميقة؛ بغض النظر عن النتيجة، تتبع هذه الأنظمة فقط تعليمات المرء. وهذا يعني أن الشركات والحكومات ومقدمي الخدمات الآخرين سيحتاجون إلى اتخاذ خيارات صريحة عند ترميز بروتوكولات الاستجابة للحالات المختلفة.
قبل حدوث ذلك، سيحتاج صناع السياسة إلى تحديد نطاق المساءلة الحسابية، لتحديد القرارات التي ينبغي تركها للشركات أو الأفراد. كما يجب مناقشة القرارات التي تندرج ضمن اختصاصات الدولة. ونظرا إلى أن مثل هذه الأسئلة الأخلاقية لا يمكن الإجابة عنها بسهولة، فمن غير المرجح أن يكون هناك توافق في الآراء. باستثناء الحل النهائي، سنحتاج إلى إنشاء أنظمة تسهل على الأقل التواصل بين السيارات ذاتية القيادة وتفصل في النزاعات الخوارزمية وحوادث الطرق.
نظرا إلى الحاجة إلى الخصوصية في تصميم خوارزميات صنع القرار، من المنطقي أن تكون هناك حاجة إلى هيئة دولية لوضع المعايير التي يتم بموجبها حل المعضلات الأخلاقية. إن السيارات الذاتية القيادة، بعد كل شيء، هي مجرد تطبيق واحد لصنع القرار الخوارزمي. في المستقبل، يجب إدارة معايير المساءلة الخواريزمية في العديد من المجالات.
في نهاية المطاف، فإن السؤال الذي يجب طرحه هو ما إذا كان للشركات الحق في تصميم أطر أخلاقية بديلة لاتخاذ القرارات الخوارزمية. نحن نعتقد أنهم لا يملكون الحق للقيام بذلك.
في عصر الذكاء الاصطناعي، ستصبح بعض مكونات سلاسل القيمة العالمية آلية في نهاية المطاف، وحينها لن يتم اعتبارها مجالات تسعى من خلالها الشركات لتحقيق ميزة تنافسية. يجب أن تكون عملية تحديد المساءلة الخوارزمية وفصلها أحد هذه المجالات. بطريقة أو بأخرى، سيتم اتخاذ القرارات. من الأفضل أن يحدث ذلك بطريقة موحدة وبشكل أكثر ديمقراطية.
To have unlimited access to our content including in-depth commentaries, book reviews, exclusive interviews, PS OnPoint and PS The Big Picture, please subscribe
The Norwegian finance ministry recently revealed just how much the country has benefited from Russia's invasion of Ukraine, estimating its windfall natural-gas revenues for 2022-23 to be around $111 billion. Yet rather than transferring these gains to those on the front line, the government is hoarding them.
argue that the country should give its windfall gains from gas exports to those on the front lines.
At the end of a year of domestic and international upheaval, Project Syndicate commentators share their favorite books from the past 12 months. Covering a wide array of genres and disciplines, this year’s picks provide fresh perspectives on the defining challenges of our time and how to confront them.
ask Project Syndicate contributors to select the books that resonated with them the most over the past year.
كمبريدج ـ في السنوات القليلة الماضية، خلصت دراسة "الجهاز الأخلاقي" التي يستضيفها "معهد ماساتشوستس للتكنولوجيا" إلى التفضيلات العامة حول الطريقة التي ينبغي أن تتصرف بها تطبيقات الذكاء الاصطناعي في بيئات مختلفة. وقد أظهرت إحدى البيانات أنه عندما تصادف سيارة ذاتية القيادة (AV) سيناريو حياة أو موت، يعتمد رأي المرء حول استجابتها على مكان الشخص، وما يعرفه عن المشاة أو الركاب المعنيين.
على سبيل المثال، في نسخة السيارات الذاتية القيادة المستوحاة من "مشاكل العربات" الكلاسيكية، قد يفضل البعض أن تصطدم السيارة بقاتل مُدان بدلا من إلحاق الأذى بالآخرين، أو أن تصطدم بمواطن بالغ بدلا من طفل. لا يزال البعض الآخر يجادل بأن السيارة الذاتية القيادة يجب أن تجازف لتجنب التمييز القائم على البيانات.
بشكل عام، يتم رفع هذه المعضلات إلى لمحاكم أو إلى التحقيقات التي تجريها الشرطة بعد وقوعها. ولكن في حالة السيارات ذاتية القيادة، سيتم اتخاذ الخيارات في غضون ثواني، وهو وقت غير كاف للتوصل إلى قرار صائب. ما يهم ليس ما نعرفه، ولكن ما تعرفه السيارة. والسؤال المطروح الآن هو: ما هي المعلومات التي ينبغي أن تعرفها السيارة الذاتية القيادة حول الأشخاص من حولها. وهل يجب السماح للشركات بتقديم أنظمة أخلاقية مختلفة سعياً وراء ميزة تنافسية؟
لننظر إلى السيناريو التالي: تتمتع سيارة من الصين بمعايير صنع مختلفة عن سيارة من الولايات المتحدة، ولكن يتم شحنها إلى الولايات المتحدة واستخدامها هناك. تتجه هذه السيارة الصينية الصنع والسيارة الأمريكية الصنع نحو تصادم لا مفر منه. إذا كان لدى سائق السيارة الصينية تفضيلات أخلاقية مختلفة عن سائق السيارة الأمريكية، فما هو النظام الذي يجب أن يسود؟
بالإضافة إلى الاختلافات الثقافية في التفضيلات الأخلاقية، على المرء أيضًا مراعاة الاختلافات في لوائح البيانات في مختلف البلدان. على سبيل المثال، يمكن للسيارة الصينية الصنع الوصول إلى بيانات تسجيل النتائج الاجتماعية، والتي تسمح لخوارزمية صنع القرار الخاصة بها بتضمين معلومات إضافية غير متاحة لشركات صناعة السيارات الأمريكية. يمكن أن تؤدي البيانات الأكثر ثراءً إلى قرارات أفضل وأكثر اتساقًا، ولكن هل تسمح هذه الميزة لنظام ما بإلغاء نظام آخر؟
في الواقع، قبل أن تستعد السيارات ذاتية القيادة للاشتغال، سنحتاج إلى تحديد أين تقع مسؤولية اتخاذ القرارات الخوارزمية، سواء كان ذلك مع السلطات البلدية أو الحكومات الوطنية أو المؤسسات المتعددة الأطراف. والأهم من ذلك، سوف نحتاج إلى أطر جديدة تحكُم هذا التقاطع بين الأعمال والدولة. لا تكمن المشكلة في نتائج السيارات الذاتية القيادة السلبية، بل في كيفية تفاعل الشركات مع الثقافات المختلفة في تطوير ونشر خوارزميات صنع القرار.
HOLIDAY SALE: PS for less than $0.7 per week
At a time when democracy is under threat, there is an urgent need for incisive, informed analysis of the issues and questions driving the news – just what PS has always provided. Subscribe now and save $50 on a new subscription.
Subscribe Now
من السهل أن تتخيل أن جميع الشركات المصنعة للسيارات ذاتية القيادة ستعلن ببساطة عن الأنظمة الأخلاقية التي تهتم بحياة السائق قبل كل شيء، أو التي تسمح للمستخدم بتعديل أطر العمل الأخلاقية الخاصة به. لمنع "مأساة المجتمع" هذه، يجب أن تكون هناك أطر لإقامة الاتصالات وتنسيق القرارات بين السيارات ذاتية القيادة. ولكن من خلال تطوير مثل هذه الأنظمة في سياقات ثقافية مختلفة، سيواجه صناع السياسة ورجال الأعمال مفاهيم ثقافية مختلفة تتعلق بالسيادة والخصوصية والاستقلالية الفردية.
هذا يفرض تحديات إضافية، لأن أنظمة الذكاء الاصطناعي لا تتساهل مع الغموض. يتطلب تصميم تطبيق الذكاء الاصطناعي من البداية خصوصية عميقة؛ بغض النظر عن النتيجة، تتبع هذه الأنظمة فقط تعليمات المرء. وهذا يعني أن الشركات والحكومات ومقدمي الخدمات الآخرين سيحتاجون إلى اتخاذ خيارات صريحة عند ترميز بروتوكولات الاستجابة للحالات المختلفة.
قبل حدوث ذلك، سيحتاج صناع السياسة إلى تحديد نطاق المساءلة الحسابية، لتحديد القرارات التي ينبغي تركها للشركات أو الأفراد. كما يجب مناقشة القرارات التي تندرج ضمن اختصاصات الدولة. ونظرا إلى أن مثل هذه الأسئلة الأخلاقية لا يمكن الإجابة عنها بسهولة، فمن غير المرجح أن يكون هناك توافق في الآراء. باستثناء الحل النهائي، سنحتاج إلى إنشاء أنظمة تسهل على الأقل التواصل بين السيارات ذاتية القيادة وتفصل في النزاعات الخوارزمية وحوادث الطرق.
نظرا إلى الحاجة إلى الخصوصية في تصميم خوارزميات صنع القرار، من المنطقي أن تكون هناك حاجة إلى هيئة دولية لوضع المعايير التي يتم بموجبها حل المعضلات الأخلاقية. إن السيارات الذاتية القيادة، بعد كل شيء، هي مجرد تطبيق واحد لصنع القرار الخوارزمي. في المستقبل، يجب إدارة معايير المساءلة الخواريزمية في العديد من المجالات.
في نهاية المطاف، فإن السؤال الذي يجب طرحه هو ما إذا كان للشركات الحق في تصميم أطر أخلاقية بديلة لاتخاذ القرارات الخوارزمية. نحن نعتقد أنهم لا يملكون الحق للقيام بذلك.
في عصر الذكاء الاصطناعي، ستصبح بعض مكونات سلاسل القيمة العالمية آلية في نهاية المطاف، وحينها لن يتم اعتبارها مجالات تسعى من خلالها الشركات لتحقيق ميزة تنافسية. يجب أن تكون عملية تحديد المساءلة الخوارزمية وفصلها أحد هذه المجالات. بطريقة أو بأخرى، سيتم اتخاذ القرارات. من الأفضل أن يحدث ذلك بطريقة موحدة وبشكل أكثر ديمقراطية.