الفصل التاسع

التعقيدات: البشر

إن احتوى العالم على إنسان عقلاني على نحوٍ تام مثل هاريت وروبوت نافع ومُطيع مثل روبي، فسنكون في أفضل حال. سيتعلَّم روبي تدريجيًّا تفضيلات هاريت على نحوٍ غير مُتطفل قدر الإمكان وسيُصبح مساعدها المثالي. قد نأمل في أن ننطلق من تلك البداية الواعدة، ربما بالنظر إلى العلاقة بين هاريت وروبي باعتبارها نموذجًا للعلاقة بين الجنس البشري وآلاته، مع اعتبار كل واحدٍ منهما مُنفصلًا.

للأسف، الجنس البشري ليس كيانًا عقلانيًّا. إنه مؤلَّف من كيانات متباينة، وشريرة، وغير عقلانية، ومتنافرة، وغير مُستقرَّة، وذات قدرات حوسبية محدودة، ومُعقَّدة، وتخضع للتطور، ويقودها الحسد. هناك الكثير والكثير منها. تلك المسائل هي الموضوعات الأساسية للعلوم الاجتماعية — وربما حتى سبب وجودها. بالنسبة إلى الذكاء الاصطناعي، سنحتاج إلى إضافة أفكار من علم النفس وعلم الاقتصاد وفلسفة السياسة وفلسفة الأخلاق.1 نحتاج إلى صهر وإعادة صياغة وتشكيل تلك الأفكار في بنية ستكون قوية بالقدر الكافي لمواجهة العبء الهائل الذي ستضعه على كاهلها نُظُم الذكاء الاصطناعي الذكية على نحوٍ متزايد. إن العمل على هذه المهمة قد بدأ بالكاد.

(١) تباين البشر

سأبدأ بما يُعدُّ على الأرجح أبسط تلك المسائل، وهي حقيقة أن البشر مُتباينون. عندما تُعرض على الناس لأول مرة فكرة أن الآلات يجب أن تتعلَّم كيفية تحقيق التفضيلات البشرية، عادة ما يعترضون قائلين إن الثقافات المختلفة، وحتى الأفراد المختلفين، لديها نظم قيم متباينة على نحوٍ واسع، ومن ثم، لا يُمكن أن يكون هناك نظامُ قيمٍ واحد صحيح للآلة. لكن بالطبع، تلك ليست بمشكلة للآلة؛ فنحن لا نريد أن يكون لها نظام قِيَم واحد صحيح خاص بها، بل نريدها أن تتوقع تفضيلات الآخرين.

قد ينشأ الخلط فيما يتعلق بأن الآلات لديها صعوبة في التعامل مع التفضيلات البشرية المُتباينة من الفكرة الخاطئة التي ترى أن الآلة «تتبنى» التفضيلات التي تتعلمها؛ على سبيل المثال، فكرة أن الروبوت المنزلي الموجود في منزل سكانه نباتيون سيتبنى التفضيلات النباتية. إنه لن يفعل ذلك. إنه يحتاج فقط لتعلم كيفية توقع ماهية التفضيلات الغذائية للنباتيين. بمُقتضى المبدأ الأول، سيتجنَّب طهي اللحوم في ذلك المنزل. لكن الروبوت سيتعلَّم أيضًا التفضيلات الغذائية لسكان المنزل المجاور المُحبِّين بشدة للحوم، وسيطهو لهم، بعد أخذ إذن مالكه، اللحم بسعادة إن استعاروه في عطلة نهاية الأسبوع ليُساعدهم في حفل عشاء. إن الروبوت ليست له مجموعة واحدة من التفضيلات خاصة به، فيما يتجاوز التفضيل الخاص بمساعدة البشر في تحقيق تفضيلاتهم.

على نحوٍ ما، هذا لا يختلف عن الطاهي بأحد المطاعم الذي يتعلَّم طهي العديد من الأطباق المختلفة ليُرضي الأذواق المختلفة لزبائنه، أو شركة تصنيع السيارات المتعددة الجنسيات التي تصنع سياراتٍ عجلةُ القيادة فيها في الجانب الأيسر من أجل السوق الأمريكية وأخرى في الجانب الأيمن للسوق البريطانية.

مبدئيًّا، تستطيع الآلة تعلم ٨ مليارات نموذج تفضيل؛ أي نموذج لكل شخص في العالم. وعمليًّا هذا ليس مستحيلًا كما يبدو. فمن ناحية، من السهل على الآلات أن تتشارك فيما بينها ما تتعلمه. ومن ناحية أخرى، يُوجَد الكثير من الأمور المشتركة في بُنى التفضيلات الخاصة بالبشر، ومن ثم، غالبًا لن تتعلم الآلة كل نموذج من البداية.

تخيَّل معي، على سبيل المثال، الروبوتات المنزلية التي قد يشتريها في أحد الأيام سكان بيركلي بكاليفورنيا. ستخرج الروبوتات من صناديقها ولدَيها مُعتقدات مُسبقة منفتحة إلى حدٍّ ما، والتي ربما جرى تصميمُها من أجل السوق الأمريكية، ولكن ليس من أجل مدينةٍ أو توجُّهٍ سياسي أو طبقةٍ اجتماعية اقتصادية معيَّنة. سيبدأ الروبوت في مقابلة أعضاء من حزب الخضر في بيركلي، الذين يتضح، مقارنةً بالأمريكيِّين العاديين، أن هناك احتمالًا أكبر بكثير أن يكونوا نباتيين وأن يستخدموا صناديق إعادة التدوير والتسميد، وأن يستعملوا وسائل المواصلات العامة حينما يكون ذلك مُمكنًا … إلخ. حينما يجد روبوت مُنضم حديثًا إلى العمل نفسه في منزلٍ صديقٍ للبيئة، يمكنه على الفور تعديل توقُّعاته تبعًا لذلك. إنه لا يحتاج إلى بدء اكتساب معلوماتٍ بشأن نوعية البشر تلك على الخصوص كما لو أنه لم يرَ قطُّ من قبل إنسانًا، فضلًا عن عضو بحزب الخضر. وهذا التعديل ليس نهائيًّا — قد يكون هناك أعضاء من حزب الخضر في بيركلي يتناولون لحم أحد أنواع الحوت المُعرَّضة للانقراض ويقودون مركبات ضخمة تستهلك الكثير من الوقود — لكنه يسمح للروبوت بأن يُصبح أكثر نفعًا بسرعة أكبر. تنطبق نفس المحاجة على نطاقٍ هائل من السمات الشخصية الأخرى التي، إلى حدٍّ ما، تُنبئ عن جوانب من بُنى التفضيلات الخاصة بالفرد.

(٢) تعدُّد البشر

النتيجة الأخرى الواضحة لوجود العديد من البشر هي حاجة الآلات إلى عمل مفاضلات بين تفضيلات الأشخاص المختلفين. إن المفاضلة لدى البشر كانت المبحث الأساسي لأجزاء كبيرة من العلوم الاجتماعية على مدى قرون. سيكون من السذاجة أن يتوقع باحثو الذكاء الاصطناعي أن يكون بإمكانهم ببساطة التوصُّل إلى الحلول الصحيحة دون فَهم ما هو معروف بالفعل. إن الأدبيات المكتوبة عن الموضوع، للأسف، هائلة، ولا يُمكنني الحكم عليها على نحوٍ عادل هنا؛ ليس فقط لأن المساحة لا تكفي، وإنَّما أيضًا لأنني لم أقرأ أغلبها. ويجب أن أُشير أيضًا إلى أن تقريبًا كل الأدبيات مُهتمَّة بالقرارات التي يتخذها البشر، في حين أنني هنا مُهتم بالقرارات التي تتخذها الآلات. هذا مُهمٌّ جدًّا لأن البشر لديهم حقوق شخصية قد تتعارض مع أيِّ التزامٍ مفترض للتصرُّف بالنيابة عن الآخرين، في حين أن الآلات ليست كذلك. على سبيل المثال، نحن لا نتوقَّع أو نطلُب من البشر العاديين التضحية بحياتهم لإنقاذ الآخرين، في حين أننا بالتأكيد نطلب من الروبوتات التضحية بوجودها لإنقاذ حياة البشر.

آلاف عديدة من سنوات العمل من جانب الفلاسفة والاقتصاديِّين وعلماء القانون وعلماء السياسة أنتجت دساتير وقوانين وأنظمة اقتصادية ومعايير اجتماعية تسعى لدفع (أو عرقلة، اعتمادًا على ما يُمسك الدفة) عملية الوصول إلى حلول مُرضية لمشكلة المفاضلات. فلاسفة الأخلاق على وجه الخصوص كانوا يُحللون مفهوم صحة الأفعال في ضوء آثارها، الإيجابية أو غير ذلك، على البشر الآخرين. وقد درسوا النماذج الكمية للمفاضلات منذ القرن الثامن عشر تحت مُسمى «النفعية». هذا العمل ذو صلةٍ على نحوٍ مباشر بمخاوفنا الحالية لأنه يحاول التوصل إلى صيغةٍ يُمكن من خلالها اتخاذ قرارات أخلاقية بالنيابة عن العديد من البشر.

إن الحاجة لعمل مفاضلاتٍ تنشأ حتى إن كان لدى الجميع بنية التفضيلات نفسها، لأنه في الغالب يكون من المستحيل تحقيق تفضيلات الجميع على النحو الأكمل. على سبيل المثال، إن أراد الجميع أن يُصبحوا أسياد الكون، فإن أغلبهم سيُصابون بالإحباط. على الجانب الآخر، التبايُن يجعل بالفعل بعض المشكلات صعبة أكثر؛ إذا كان الجميع سعداء بلون السماء الأزرق، فإن الروبوت الذي يتعامل مع الأمور الخاصة بالغلاف الجوي يمكنه العمل على إبقائه على هذا الوضع؛ لكن إذا كان العديد من الناس يُطالِبون بتغيير لونها، فإن الروبوت سيحتاج إلى التفكير في الحلول الوسط المُمكنة مثل جعل السماء برتقالية اللون في الجمعة الثالثة من كل شهر.

إن وجود أكثر من شخصٍ في العالم له نتيجة مُهمَّة أخرى؛ إنه يعني أن كل شخص له أشخاص يهتمُّ بشأنهم. وهذا يعني أن تحقيق تفضيلات الشخص له تبعات على أشخاصٍ آخرين، اعتمادًا على التفضيلات الفردية فيما يتعلَّق بمصلحة الآخرين.

(٢-١) الذكاء الاصطناعي الموالي

دعنا نبدأ بطرحٍ بسيط للغاية للكيفية التي يجبُ أن تتعامل بها الآلات مع مسألة وجود العديد من البشر، وهو أنها يجب أن تتجاهلها. هذا يعني أن روبي، إن كان مملوكًا لهاريت، يجب أن يهتمَّ فقط بتفضيلات هاريت. هذا النوع «الموالي» من الذكاء الاصطناعي يتغلَّب على مشكلة المفاضلات، لكنه يُؤدِّي إلى مُشكلات:

روبي : اتَّصل زوجك ليُذكِّرك بعشاء الليلة.
هاريت : انتظر! ماذا؟ أي عشاء؟
روبي : ذلك العشاء الذي بمُناسبة عيد زواجكما العشرين، والذي سيكون في الساعة السابعة.
هاريت : لا أستطيع الذهاب! سأُقابل السكرتيرة العامة في السابعة والنصف! كيف حدث هذا؟
روبي : لقد حذرتُك لكنك تجاهلت توصيتي …
هاريت : حسنًا، أنا آسفة؛ ولكن ماذا سأفعل الآن؟ لا يُمكنني إخبار السكرتيرة العامة بأنني مشغولة جدًّا!
روبي : لا تقلقي. لقد رتبتُ بحيث تتأخَّر طائرتها؛ بإحداث نوع من الخلل في الكمبيوتر.
هاريت : حقًّا؟ أيُمكنك فعل هذا؟!
روبي : أرسلت لك السكرتيرة العامة رسالة تعتذر لك فيها بشدة، وتقول لك إنها ستكون سعيدة للقائك على الغداء غدًا.

هنا، وجد روبي حلًّا عبقريًّا لمشكلة هاريت، لكن أفعاله كان لها تأثير سلبي على أشخاصٍ آخرين. إن كانت هاريت شخصًا غيريًّا ويقظة الضمير بشدة، فإن روبي، الذي يسعى إلى تحقيق تفضيلات هاريت، لن يفكر أبدًا في القيام بمثل هذا المخطط المُريب. لكن ماذا إذا كانت هاريت لا تهتم على الإطلاق بتفضيلات الآخرين؟ في تلك الحالة، روبي لن يُمانع في تأخير الطائرات. وقد يقضي وقته في سرقة أموال من حساباتٍ مصرفية إلكترونية لملء خزائن هاريت غير المبالية بالآخرين، أو قد يفعل أسوأ من ذلك.

من الواضح أن أفعال الآلات الموالية ستحتاج أن تُقيَّد من خلال قواعد ومحظورات، تمامًا مثل أفعال البشر المقيدة بفعل القوانين والمعايير الاجتماعية. اقترح البعض وجود مسئولية قانونية صارمة كحل:2 تكون هاريت (أو الشركة المُصنِّعة لروبي، اعتمادًا على من تُفضِّل أن تُلقي بالمسئولية على عاتقه) مسئولة ماليًّا وقانونيًّا عن أيِّ فعلٍ يقوم به روبي، تمامًا كما يكون مالك الكلب مسئولًا في معظم الحالات إن عضَّ الكلب طفلًا صغيرًا في حديقةٍ عامة. تبدو تلك الفكرة واعدة لأن روبي حينها سيكون لديه دافع لتجنُّب فعل أي شيءٍ يوقع هاريت في مشكلة. لسوء الحظ، فكرة المسئولية القانونية الصارمة غير مُجدية؛ فهي تضمن ببساطة أن روبي سيتصرف «على نحو غير قابل للكشف» عندما يؤخِّر مواعيد وصول الطائرات ويسرق أموالًا من أجل هاريت. هذا مثال فعلي آخر على مبدأ الثغرة. إن كان روبي مواليًا لهاريت غير اليقظة الضمير، فإن محاولات تقييد سلوكه بقواعد ستفشل على الأرجح.

حتى إن استطعنا أن نمنع بعض الشيء الجرائم الصريحة، فإن الروبوت الموالي من أمثال روبي الذي يعمل مع إنسان غير مُبالٍ مثل هاريت سيُبدي سلوكيات أخرى مزعجة. إن كان يشتري أغراض بقالة من السوبرماركت، سيكسر الصف الذي أمام مكان الدفع حينما يكون ذلك ممكنًا. وإن كان يُحضر البقالة إلى المنزل ووجد أحد المارِّين يُعاني من أزمةٍ قلبية، فسيستمرُّ في طريقه في كل الأحوال، حتى لا تفسد المثلجات الخاصة بهاريت. باختصار، سيجد طرقًا لا نهائية لإفادة هاريت على حساب الآخرين؛ طرقًا قانونية بالفعل لكنها تُصبح غير مُحتملة عند القيام بها على نطاقٍ واسع. ستجد المجتمعات نفسها تُمرِّر مئات القوانين الجديدة كل يوم لمواجهة كل الثغرات التي ستجدها الآلات في القوانين الحالية. يميل البشر إلى عدم الاستفادة من تلك الثغرات، نظرًا إلى أن لديهم فهمًا عامًّا للمبادئ الأخلاقية الأساسية، أو لأنهم يفتقدون البراعة اللازمة لاكتشاف تلك الثغرات في المقام الأول.

إن أيَّ هاريت تكون غير مبالية بمصلحة الآخرين تكون شخصية سيئة بالقدر الكافي. إن هاريت السادية التي «تُفضِّل» على نحوٍ نشط مُعاناة الآخرين تكون شخصية أكثر سوءًا. إن أيَّ روبي مُصمَّم لتحقيق تفضيلات هاريت كهذه سيمثل مشكلةً خطيرة، لأنه سيبحث عن طرق للإضرار بالآخرين من أجل إسعاد هاريت — وسيجدها — إما على نحوٍ قانوني أو غير قانوني ولكن دون أن يكتشفه أحد. وسيحتاج بالطبع لأن يخبر هاريت بالأمر حتى تستطيع أن تستمدَّ لذَّة من معرفتها بأفعاله الشريرة.

يبدو من الصعب، إذن، أن تنجح فكرة الذكاء الاصطناعي الموالي، إلا إذا جرى توسيعها لتتضمَّن وضع تفضيلات البشر الآخرين في الاعتبار، إلى جانب تفضيلات المالك.

(٢-٢) الذكاء الاصطناعي النفعي

السبب وراء أنَّ لدينا فلسفة أخلاقية هو وجود أكثر من شخصٍ على كوكب الأرض. وعادة ما يُسمَّى النهج الأكثر ارتباطًا بفهم الكيفية التي يجب بها تصميم نظم الذكاء الاصطناعي ﺑ «العواقبية»؛ أي فكرة أن الاختيارات يجب الحكم عليها تبعًا للنتائج المتوقعة. أما النهجان الأساسيان الآخران، فهما «أخلاق الواجب» و«أخلاق الفضيلة»، اللذان يهتمَّان بشدة بالطابع الأخلاقي للأفعال والأفراد، على التوالي، بعيدًا عن نتائج الاختيارات.3 في غياب أي دليل على وجود وعيٍ ذاتيٍّ لدى الآلات، أعتقد أنه ليس من الحكمة إنشاء آلات تتمتع بالفضيلة أو تختار أفعالًا تتوافق مع قواعد أخلاقية إن كانت التبعات غير مرغوبٍ فيها على نحوٍ كبير بالنسبة للبشرية. دعني أصوغ الأمر على نحوٍ آخر: إننا نُنشئ آلاتٍ لتحقيق نتائج، ويجب أن نفضل إنشاء آلاتٍ تُحقِّق نتائج نُريدها.
هذا لا يعني أن الفضائل والقيم الأخلاقية غير ذات صلة؛ إنها، بالنسبة إلى الشخص النفعي، مبرَّرة بالنظر إلى النتائج والتحقيق الأكثر عمليةً لتلك النتائج. تعرض جون ستيوارت ميل لتلك النقطة في عمله «النفعية»:

الطرح القائل بأن السعادة هي الغاية والهدف من الأخلاق لا يعني أنه لا يجب وضع طريق للوصول إلى ذلك الهدف أو أن الناس الذين يسعون إليه لا يجب نُصحهم باتخاذ اتجاهٍ معين دون الآخر. … لا أحد يُجادل أن فنَّ الملاحة لا يقوم على علم الفلك لأنَّ البحارة لا يمكنهم الانتظار لحساب التقويم البحري. ولأن البحارة مخلوقات عقلانية، فهم يذهبون إلى البحر بحسابات جاهزة؛ وكل المخلوقات العقلانية تخرج إلى بحر الحياة وعقولها لديها مفاهيم محدَّدة عن المسائل الشائعة المتعلِّقة بالصواب والخطأ، إلى جانب العديد من المسائل الأكثر صعوبة المتعلِّقة بالحكمة والطيش.

تتوافق تلك الرؤية على نحوٍ تام مع الفكرة التي ترى أن الآلة المتناهية التي تواجه التعقيد الهائل للعالم الواقعي قد تنتج نتائج أفضل بالالتزام بقواعد أخلاقية وتبنِّي أسلوبٍ قويمٍ بدلًا من محاولة تحديد مسار الفعل الأمثل من الصفر. باستخدام نفس الطريقة، يُحقِّق غالبًا برنامج الشطرنج الفوز باستخدام مجموعةٍ من تسلسلات الحركات الافتتاحية القياسية وخوارزميات إنهاء اللعب ودالة تقييم وليس بمحاولة الوصول إلى طريقةٍ للفوز دون إرشادات «أخلاقية». إن النهج العواقبي أيضًا يُعطي بعض الأهمية لتفضيلات هؤلاء الذين يُؤمنون بقوةٍ بالحفاظ على إحدى قواعد الواجب؛ لأنَّ الحزن الناتج عن عدم الالتزام بتلك القاعدة يعدُّ إحدى النتائج الحقيقية. ومع ذلك، إنها ليست نتيجة ذات أهمية لا مُتناهية.

العواقبية مبدأ صعب الاعتراض عليه — على الرغم من محاولة الكثيرين فعل ذلك! — لأنه من غير المنطقي الاعتراض على العواقبية على أساس أنها ستكون لها تبعات غير مرغوب فيها. فلا يُمكن أن يقول أحد: «لكن إن اتَّبعت النهج العواقبي في الحالة الفلانية، فإنَّ هذا الأمر الفظيع حقًّا سيحدث!» إن أيًّا من تلك الإخفاقات سيكون ببساطة دليلًا على أن النظرية قد أُسيء تطبيقُها.

على سبيل المثال، افترض أن هاريت تُريد تسلُّق جبل إيفرست. قد يخشى أحدهم أن روبي العواقبي ببساطة سيحملها إلى أعلى ويضعها على قمة هذا الجبل، نظرًا لأن تلك هي النتيجة المرغوبة بالنسبة لها. على نحو شبه مؤكَّد، ستعترض هاريت على تلك الخطة، لأنها ستحرمها من التحدي؛ ومن ثمَّ من النشوة التي تنتج عن النجاح في إتمام مهمة صعبة بالاستعانة بجهودها الفردية. والآن، من الواضح أن روبي العواقبي المُصمَّم على نحوٍ جيد سيفهم أن النتائج تتضمن كل تجارب هاريت، وليس الغاية النهائية فقط. قد يرغب في أن يكون متاحًا في حالة وقوع أي مكروه وأن يتأكَّد من أنها مُدرَّبة جيدًا ومزوَّدة بكل التجهيزات اللازمة، لكنه أيضًا قد يكون عليه قبول حق هاريت في تعريض نفسها لخطر الموت.

إن كُنا نُخطِّط لإنشاء آلات عواقبية، فالسؤال الذي يطرح نفسه هو: كيف نُقيِّم العواقب التي تؤثِّر على العديد من الأشخاص؟ إحدى الإجابات المعقولة تتمثَّل في إعطاء أهميةٍ متساوية لتفضيلات الجميع؛ بعبارة أخرى، تعظيم مجموع منافع الجميع. عادة ما تنسب تلك الإجابة للفيلسوف البريطاني المُنتمي للقرن الثامن عشر جيرمي بنثام4 وتلميذه جون ستيوارت ميل،5 الذي قدم الطرح الفلسفي للنفعية. يُمكن إرجاع جذور الفكرة الأساسية إلى أعمال الفيلسوف اليوناني القديم إبيقور وهي تظهر صراحة في «موتسي»، وهو كتاب يضمُّ كتاباتٍ منسوبة إلى الفيلسوف الصيني الذي يحمل نفس الاسم. إن موتسي كان نشطًا في نهاية القرن الخامس قبل الميلاد وروَّج لفكرة «جياناي»، التي ترجمت بطرقٍ مُختلفة على أنها «الرعاية الشاملة» أو «الحب العالمي»، مُعتبرًا إياها السمة المميزة للأفعال الأخلاقية.

إن للنفعية سمعة سيئة إلى حدٍّ ما، جزئيًّا بسبب بعض سوء الفهم البسيط بشأن ما تتبناه. (بالتأكيد ما يزيد الأمر سوءًا أن تعني كلمة «نفعي» الآتي: «مُصمَّم كي يكون نافعًا أو عمليًّا بدلًا من أن يكون جذابًا».) النفعية عادة ما ينظر إليها على أنها تتعارض مع الحقوق الفردية لأنَّ الشخص النفعي من المُفترض ألا يتردَّد في نزع أعضاء أي شخصٍ إن كان سينقذ حياة خمسة أشخاص آخرين؛ بالطبع، مثل هذه الفكرة ستجعل الحياة غير آمنة على نحوٍ غير مقبول للجميع على الكوكب؛ لذا، الشخص النَّفعي لن يفكر حتى فيها. النفعية أيضًا مرتبطة على نحوٍ غير صحيح بتعظيم غير جذاب إلى حدٍّ ما للثروة الكلية ويُعتقد أنها لا تهتمُّ كثيرًا بالشعر أو المعاناة. في واقع الأمر، نُسخة بنثام منها ركزت على وجه الخصوص على السعادة البشرية، في حين أن ميل أكد بثقة على أن اللذات الذهنية لها قيمة أكبر بكثير من اللذات الجسدية. (من الأفضل أن تكون إنسانًا غير راضٍ عن خنزير راضٍ.) إن «النفعية المثالية» لجي إي مور ذهبت حتى لأبعد من هذا؛ لقد دعا إلى تعظيم الحالات الذهنية للقيمة الداخلية، المُمثَّلة في التأمُّل الجمالي للجمال.

أعتقد أنه لا تُوجَد مدعاة لقيام فلاسفة النفعية بتحديد المحتوى المثالي للمنفعة البشرية أو التفضيلات البشرية. (وأعتقد أن تلك المدعاة حتى تقل في حالة باحثي الذكاء الاصطناعي.) يستطيع البشر فعل ذلك لأنفسهم. أثار الاقتصادي جون هورشاني وجهة النظر هذه من خلال مبدئه المتمثِّل في «استقلالية التفضيلات»:6

عند تحديد الصواب والخطأ بالنسبة إلى شخص مُعيَّن، المعيار النهائي يُمكن أن يكون فقط رغباته وتفضيلاته.

إن «نفعية التفضيلات» لدى هورشاني من ثمَّ مُتوافقة تقريبًا مع المبدأ الأول للذكاء الاصطناعي النافع، والذي ينصُّ على أن الغاية الوحيدة للآلة هي تحقيق التفضيلات البشرية. يجب بالطبع على باحثي الذَّكاء الاصطناعي ألا يكونوا جزءًا من محاولة تحديد الماهية التي «يجب» أن تكون عليها التفضيلات البشرية! وهورشاني، شأنه شأن بنثام، يرى تلك المبادئ باعتبارها وسيلةً لتوجيه القرارات «العامة»؛ فهو لا يتوقَّع أن يكون الناس غيريِّين جدًّا إلى هذه الدرجة. ولا يتوقع كذلك أن يكونوا عقلانيِّين على نحوٍ تام؛ على سبيل المثال، قد تكون لهم رغبات قصيرة الأجل تتعارض مع «تفضيلاتهم الأعمق». وأخيرًا، اقترح تجاهُل تفضيلات هؤلاء الذين، مثل هاريت السادية المذكورة آنفًا، يتمنَّون بشدة الإضرار بمصلحة الآخرين.

قدم هورشاني أيضًا دليلًا إلى حدٍّ ما على أنَّ القرارات الأخلاقية المثالية يجب أن تُعظِّم من المنفعة المتوسِّطة عبر أيِّ مجموعةٍ من البشر.7 وقد افترض مُسلَّمات ضعيفة إلى حدٍّ ما مُماثلة لتلك التي تقوم عليها نظرية المنفعة بالنسبة إلى الأفراد. (المسلمة الأساسية الإضافية تتمثَّل في أنه إن يكن كل أعضاء المجموعة غير مُبالين تجاه نتيجتَين، فإن أي كيان يعمل بالنيابة عن المجموعة يجب أن يكون غير مبالٍ تجاه هاتَين النتيجتَين.) من هذه المُسلَّمات، أثبت ما صار معروفًا باسم «مبرهنة التجميع الاجتماعي»؛ أي الكيان الذي يعمل بالنيابة عن مجموعةٍ من الأفراد يجبُ أن يُعظِّم من مزيجٍ خطِّي موزون من المنافع الخاصة بهم. وحاجج كذلك بأنَّ الكيان «غير الإنساني» يجب أن يستخدم أوزانًا مُتساوية.
تتطلَّب المُبرهنة افتراضًا إضافيًّا مُهمًّا (وغير مذكور)، وهو أن كل الأفراد لديها نفس الاعتقادات الواقعية المسبقة عن العالم والطريقة التي سيتطوَّر بها. لكنَّ أيَّ أبٍ يعرف أن هذا حتى غير صحيح فيما يتعلَّق بأبنائه، فضلًا عن الأفراد الذين من خلفيات وثقافات اجتماعية مختلفة. ومن ثم، ماذا سيحدث عند اختلاف الأفراد في اعتقاداتهم؟ سيحدث شيء غريب جدًّا:8 الوزن المعطى لمنفعة كل فرد يجب أن يتغيَّر بمرور الوقت، بالتناسُب مع مدى تلاؤم الاعتقادات المُسبقة لهذا الفرد مع الواقع المتطوِّر.

إن تلك الصيغة التي تبدو غير عادلة إلى حدٍّ كبير مألوفة جدًّا لأيِّ أب. دعنا نفترض أن الروبوت روبي طُلب منه رعاية الطفلين، أليس وبوب. تريد أليس الذهاب إلى السينما وهي متأكدة من أن الطقس سيكون مُمطرًا اليوم؛ أما بوب، على الجانب الآخر، فيُريد الذهاب إلى الشاطئ وهو متأكِّد من أن الطقس سيكون مُشمسًا. يُمكن أن يقول روبي: «سنذهب إلى السينما»، مما سيجعل بوب غير سعيد، أو أن يقول: «سنذهب إلى الشاطئ»، مما سيجعل أليس تشعُر بالحزن أو يُمكنه القول: «إن كان الطقس مُمطرًا فسنذهب إلى السينما؛ أما إن كان مشمسًا فسنذهب إلى الشاطئ». إن تلك الخطة الأخيرة ستجعل كلًّا من أليس وبوب سعيدًا لأنَّ الاثنين يؤمنان بصحة ما يعتقدانه.

(٢-٣) التحديات التي تواجه النفعية

النفعية هي أحد الطروح التي نتجت عن بحث البشرية الطويل المدى عن دليل أخلاقي، وهي تُعدُّ، من بين العديد من مثل هذه الطروح، الأكثر تحديدًا على نحوٍ واضح؛ ومن ثم، الأكثر عرضةً لوجود ثغرات فيها. بدأ الفلاسفة يكتشفون تلك الثغرات منذ أكثر من مائة عام. على سبيل المثال، تخيَّل جي إي مور، الذي اعترض على تأكيد بنثام على تعظيم اللذة، «عالَمًا لا يُوجَد فيه تقريبًا شيء سوى اللذة؛ لا معرفة ولا حب ولا استمتاع بالجمال ولا سمات أخلاقية».9 ستجدُ لهذا صدًى مُعاصرًا في إشارة ستيوارت أرمسترونج إلى أن الآلات الخارقة المكلَّفة بتعظيم اللذة قد «تدفن الجميع في توابيت أسمنتية على قطرات هيروين».10 إليك مثالًا آخر: في عام ١٩٤٥، اقترح كارل بوبر الهدف الجدير بالاحترام والثناء الخاص بتقليل المعاناة البشرية،11 ورأى أنه من غير الأخلاقي مُبادلة ألم شخصٍ بلذة آخر؛ وردَّ آر إن سمارت بأن هذا يُمكن تحقيقه على أفضل نحوٍ بجعل الجنس البشري ينقرض.12 وفي هذه الأيام، فكرة أن الآلة قد تُنهي المعاناة البشرية بإنهاء وجودنا تُعَدُّ محور الجدل حول الخطر الوجودي للذكاء الاصطناعي.13 هناك مثال ثالث يتمثل في تأكيد جي إي مور على «واقعية» مصدر السعادة، مُعدلًا بذلك التعريفات السابقة التي بدا أن بها ثغرة تسمح بتعظيم السعادة من خلال الخداع الذاتي. إن الأمثلة المعاصرة لهذه النقطة تتضمن فيلم «المصفوفة» (ذا ماتريكس) (الذي يتحوَّل فيه واقعُ اليوم إلى وهمٍ أنتجتْه المحاكاة الحاسوبية)، والأبحاث الحديثة على مشكلة الخداع الذاتي في التعلم المعزز.14

تلك الأمثلة، وغيرها، تُقنعني بأن مجتمع الذكاء الاصطناعي يجب أن ينتبه بشدة إلى نقاط الهجوم والهجوم المضاد التي تُثار في النقاشات الفلسفية والاقتصادية الخاصة بالنفعية؛ لأنها ذات صلة على نحو مُباشر بالمهمة الحالية. يتعلَّق اثنان من أهم تلك النقاشات، من وجهة نظر تصميم نُظُم ذكاء اصطناعي تُفيد العديد من الأشخاص، بالمقارنات بين منافع الأفراد ومقارنات المنافع عبر أحجام مجموعات سكانية مختلفة. لقد بدأ هذان النقاشان منذ ١٥٠ عامًا أو يزيد، مما يؤدي بالمرء للشك في أن انتهاءهما على نحوٍ مُرضٍ قد لا يكون سهلًا على الإطلاق.

إن النقاش بشأن المقارنات بين منافع الأفراد مُهم لأن روبي لا يُمكنه تعظيم مجموع منفعتي أليس وبوب إلا إذا كان بالإمكان جمع هاتَين المنفعتَين؛ ويُمكن فعل هذا فقط إن كانتا قابلتين للقياس على نفس المقياس. حاجج عالم المنطق والاقتصاد البريطاني المُنتمي إلى القرن التاسع عشر ويليام ستانلي جيفنز (الذي يُعدُّ أيضًا مخترع كمبيوتر ميكانيكي مبكر يُسمَّى البيانو المنطقي) في عام ١٨٧١ بأن تلك المقارنات مستحيلة:15

إن قابلية تأثُّر أحد العقول، بحسب علمنا، قد تكون أكبر ألف مرة من تلك الخاصة بعقل آخر. لكن، نظرًا إلى أن تلك القابلية كانت مختلفة بنسبة مُتشابهة في كل الاتجاهات، فيجب ألا يكون بإمكاننا أبدًا اكتشاف الاختلاف الأعمق. من ثمَّ، كلُّ عقل يكون مُستغلقًا بالنسبة إلى العقول الأخرى، وإيجاد قاسم مشترك فيما يتعلق بالشعور غير ممكن.

كان الاقتصادي الأمريكي كينيث أرو، الذي يُعدُّ مؤسس نظرية الاختيار الاجتماعي الحديثة والحائز على جائزة نوبل في عام ١٩٧٢، صارمًا على نحوٍ مُماثل:

إن وجهة النظر المتَّخذة هنا هي أن المقارنة بين منافع الأفراد لا معنى لها، وفي الحقيقة، لا معنى مُتعلِّقًا بمقارنات الرفاهية في قابلية المنفعة الفردية للقياس.

الصعوبة التي يُشير إليها جيفنز وأرو تتمثَّل في عدم وجود طريقة واضحة لتحديد ما إذا كانت أليس تقدر وخزات الدبابيس والمصاصات بالقيمتين −١ و+١ أم −١٠٠٠ و+١٠٠٠ في ضوء تجربتها الذاتية للسعادة. في كلتا الحالتين، ستدفع من أجل الحصول على مصاصة لتجنُّب الوخز بالدبوس. في واقع الأمر، إن كانت أليس آليًّا شبيهًا بالإنسان، فإن سلوكها الخارجي قد لا يختلف رغم عدم وجود تجربة ذاتية للسعادة على الإطلاق.

في عام ١٩٧٤، أشار الفيلسوف الأمريكي روبرت نوزيك إلى أنه حتى إن كان بالإمكان عمل مقارنات بين منافع الأفراد، فإن تعظيم مجموع المنافع سيظلُّ يُعدُّ فكرةً سيئة لأنه سيصطدم بما يسمى ﺑ «وحش المنفعة»؛ وهو الشخص الذي تكون تجارب اللذة والألم لديه أكثر قوة عدة مرات من تلك الخاصة بالأشخاص العاديِّين.16 مثل هذا الشخص يُمكن أن يؤكد أن أي وحدة إضافية من الموارد ستنتج زيادة أكبر في المجموع الكُلي للسعادة البشرية إن أُعطيت له بدلًا من الآخرين؛ في واقع الأمر، «أخذ» موارد من الآخرين لصالح وحش المنفعة سيكون فكرة جيدة أيضًا.

قد تبدو هذه نتيجة غير مرغوب فيها على نحوٍ واضح، لكن العواقبية في حدِّ ذاتها لا يمكن أن تفيد هنا: المشكلة تكمن في كيفية قياس مرغوبية النتائج. أحد الردود الممكنة تتمثل في أن وحش المنفعة مجرد شيء نظري؛ إذ لا يُوجَد أشخاص مثل هذا. لكن هذا الرد على الأرجح لن يفيد أيضًا؛ فبنحوٍ ما، «كل» البشر وحوشُ منفعةٍ مُقارنةً، لنقُل، بالجرذان والبكتيريا، وهذا هو السبب وراء عدم اهتمامنا الكبير بتفضيلات الجرذان والبكتيريا عند وضع السياسة العامة.

إذا كانت فكرة أن الكيانات المُختلفة لديها مقاييس منفعة مختلفة مضمنة بالفعل في طريقة تفكيرنا، فيبدو من الممكن تمامًا أن يكون لدى الأشخاص المختلفين مقاييس مختلفة أيضًا.

هناك رد آخر يتمثَّل في ندب الحظ والعمل على أساس الافتراض الذي يرى أن الجميع لديهم المقياس نفسه، حتى لو لم يكونُوا كذلك.17 كما يُمكن للمرء محاولة استكشاف الأمر من خلال الوسائل العلمية التي لم تكن متاحةً لجيفنز، مثل قياس مستويات الدوبامين أو درجة الإثارة الكهربية للعصبونات المرتبطة باللذة والألم، والسعادة والبؤس. إذا كانت الاستجابات الكيميائية والعصبية لأليس وبوب فيما يتعلَّق بالمصاصات مُتطابقة إلى حدٍّ كبير، وكذلك استجاباتهم السلوكية (الابتسام وأصوات لعق الشفاه وغير ذلك)، فيبدو من الغريب الإصرار مع ذلك على أن درجتي استمتاعهما الشخصية تختلفان بعامل قدره ألف أو مليون. وأخيرًا، يستطيع المرء استخدام الأشياء المشتركة الشائعة مثل الوقت (التي لدينا جميعًا منها، تقريبًا، نفس القدر)؛ على سبيل المثال، بمقارنة المصاصات ووخزات الدبابيس، لنقل، بفترة انتظار إضافية قدرها ٥ دقائق في صالة المغادرة الخاصة بالمطار.

أنا أقلُّ تشاؤمًا بكثيرٍ من جيفنز وأرو. إنني أعتقد أنه من المُفيد بالفعل المقارنة بين منافع الأفراد وأرى أن المقاييس قد تختلف ولكن ليس بالأساس بعوامل كبيرة للغاية وأنَّ الآلات يُمكن أن تبدأ باعتقادات مُسبقة عامة على نحو معقول فيما يتعلَّق بمقاييس التفضيلات البشرية وتتعلَّم المزيد عن مقاييس الأفراد بالملاحظة بمرور الوقت، ربما بربط الملاحظات الطبيعية بنتائج أبحاث علم الأعصاب.

النقاش الثاني — المُتعلِّق بمقارنات المنفعة عبر المجموعات السكانية ذات الأحجام المختلفة — يكون مُهمًّا عندما يكون للقرارات تأثير على من سيُوجد في المستقبل. على سبيل المثال، في فيلم «المنتقمون: الحرب الأزلية» (أفنجرز: إنفنيتي وور)، شخصية ثانوس تطور وتنفذ النظرية التي تقول إنه لو قلَّ عددُ سكان العالم بمقدار النصف، فسيكون البشر الباقون أكثر سعادةً بمقدارٍ يزيد عن الضعف. وهذه هي نوعية الحسابات الساذجة التي أعطت مذهب النفعية سمعةً سيئة.18
نفس المسألة — فيما عدا الأحجار الأزلية والميزانية الجبارة — نُوقشت في عام ١٨٧٤ على يد الفيلسوف البريطاني هنري سيدجويك في عمله الشهير «أساليب الأخلاق».19 خلص سيدجويك، في اتفاق واضح مع ثانوس، إلى أن الاختيار الصحيح كان تعديل حجم السكان حتى يجري الوصول إلى السعادة الإجمالية القصوى. (من الواضح أن هذا لا يعني زيادة عدد السكان دون حدود؛ لأن الجميع في نقطة معيَّنة سيتضوَّرُون جوعًا حتى الموت؛ ومن ثمَّ سيكونون في غاية التعاسة.) في عام ١٩٨٤، تناول الفيلسوف البريطاني ديريك بارفيت تلك المسألة ثانية في عمله الرائد «الأسباب والأشخاص».20 حاجج بارفيت بأنه بالنسبة إلى أي وضع يكون فيه عدد الأشخاص السعداء للغاية بالمجموعة السكانية ن، فهناك (طبقًا للمبادئ النفعية) وضع أفضل فيه يكون عدد الأشخاص الأقل سعادة بقليل ٢ن. يبدو هذا معقولًا جدًّا. لسوء الحظ، هناك أيضًا ما يُسمى بمنحدر زلق. فبتكرار العملية، نصل إلى ما يُطلق عليه «الاستنتاج البغيض» (وهو مُصطلح له جذور تعود إلى العصر الفيكتوري): ويعني أن الوضع الأكثر مرغوبية هو ذلك الذي يُوجَد فيه سكان كُثر، والذين لجميعهم حياة بالكاد تستحق العيش.
كما يُمكن أن تتخيَّل، إن هذا الاستنتاج مثير للجدل. بارفيت نفسه صارع لأكثر من ثلاثين عامًا لإيجاد حلٍّ لمُعضلته، لكن دون أن ينجح في ذلك. أعتقد أنه ينقصنا بعض المُسلمات الجوهرية، المناظرة لتلك الخاصة بالتفضيلات العقلانية على نحوٍ فردي، للتعامل مع التفضيلات عبر المجموعات السكانية ذات الأحجام ومُستويات السعادة المختلفة.21
من المهم أن نحلَّ هذه المشكلة؛ لأنَّ الآلات التي لديها تبصُّر كافٍ قد تكون قادرةً على التفكير في مسارات فعلٍ تؤدِّي إلى أحجام مجموعات سكانية مختلفة، تمامًا كما فعلت الحكومة الصينية من خلال سياسة الطفل الواحد التي أقرتها في عام ١٩٧٩. من المُحتمل للغاية، على سبيل المثال، أن نطلب من نظم الذكاء الاصطناعي المساعدة في وضع حلول لمشكلة تغير المناخ العالمي، وقد تتضمَّن تلك الحلول وضع سياساتٍ تميل إلى الحد من النمو السكاني أو حتى تقليله.22 على الجانب الآخر، إن قرَّرنا أن المجموعات السكانية الأكبر حقًّا أفضل وأعطينا أهمية كبيرة لرخاء المجموعات السكانية البشرية التي ربما تكون كبيرة؛ وذلك على مدى قرونٍ من الآن، فسنحتاج للعمل على نحو أكبر من أجل إيجاد طرق لتجاوز حدود كوكبنا. وإن أدَّت حسابات الآلات إلى الاستنتاج البغيض أو نقيضه — عدد سكان قليل أفرادُه سعداء على نحوٍ مثاليٍّ — فسيكون علينا الشعور بالندم لعدم تحقيقنا التقدم المنشود في هذه المشكلة.
حاجج بعض الفلاسفة بأننا قد نحتاج لاتخاذ قرارات في ظل حالة من عدم اليقين الأخلاقي؛ أي عدم اليقين بشأن النظرية الأخلاقية الملائمة التي ستُستخدم في اتخاذ القرارات.23 أحد الحلول يتمثَّل في تخصيص بعض الاحتمال لكل نظرية أخلاقية واتخاذ القرارات باستخدام «قيمة أخلاقية متوقَّعة». لكن ليس من الواضح إن كان من المعقول تخصيص احتمالات للنظريات الأخلاقية بنفس الطريقة التي نُطبِّق بها الاحتمالات على طقس الغد. (ففي النهاية، ما احتمال أن تكون وجهة نظر ثانوس صحيحة تمامًا؟) وحتى إن كان هذا معقولًا، فالاختلافات التي ربما تكون كبيرة بين توصيات النظريات الأخلاقية المتنافسة تعني أن إنهاء عدم اليقين الأخلاقي — تحديد النظرية الأخلاقية التي تتجنَّب التبعات غير المقبولة — يجب أن يحدث «قبل» اتخاذ تلك القرارات المهمَّة أو العهد بذلك للآلات.

دعنا نكُن متفائلين ونفترض أن هاريت في النهاية ستحلُّ تلك المُشكلة وغيرها من المشكلات الناشئة عن وجود أكثر من شخصٍ على كوكب الأرض. جرى تنزيل خوارزميات مُناسبة تقوم على الغيرية والمساواة في الروبوتات عبر جميع أنحاء العالم. وهناك مظاهر احتفال وموسيقى سعيدة في كل مكان. وبعد ذلك، تعود هاريت إلى المنزل:

روبي : عود حميد! أكان يومًا طويلًا؟
هاريت : نعم، لقد كان العمل شاقًّا حقًّا، ولم تتسنَّ لي حتى فرصة تناول الغداء.
روبي : إذن، لا بدَّ أنك جائعة بشدة!
هاريت : أكادُ أموت جوعًا! هل بإمكانك إعداد عشاء لي؟
روبي : هناك شيء أنا بحاجة لإخبارك به …
هاريت : ما هو؟ لا تقلُ لي إن الثلاجة خاوية!
روبي : لا، هناك أناس في الصومال في حاجة عاجلة أكثر للمُساعدة. أنا سأُغادر الآن. رجاء أعدِّي عشاءك بنفسك.

في حين أن هاريت ربما تكون في غاية الفخر بروبي وبإسهاماتها في سبيل جعله آلة محترمة ومتميزة، فقد لا تستطيع منع نفسها من التساؤل عن السبب وراء دفعها مبلغًا كبيرًا في شراء روبوت أوَّل تصرُّف مُهمٍّ له هو تركها. فعليًّا، بالطبع، لن يشتري أحد مثل هذا الآلي؛ ومن ثم لن يجري تصنيع مثل هذه الروبوتات، ولن تكون هناك أي منفعة للبشرية منه. دعنا نُطلق على هذا «المشكلة الصومالية». فمن أجل أن ينجح نظام آلي نفعي بالكامل، يجب أن نجد حلًّا لتلك المشكلة. سيحتاج روبي لأن يكون لديه قدر من الولاء لهاريت على الخصوص؛ ربما، قدر مُرتبط بالمبلغ الذي دفعتْه هاريت من أجل شرائه. في كل الأحوال، إن أراد المجتمع أن يساعد روبي أناسًا آخرين بجانب هاريت، فعليه أن يُعوِّضها فيما يتعلق بحقها في الاستفادة من جهود روبي. ومن المحتمل إلى حدٍّ كبيرٍ أن يُوجَد تنسيق بين الروبوتات بحيث لا ينزل الجميع إلى الصُّومال في وقتٍ واحد؛ وفي هذه الحالة، قد لا يحتاج روبي في النهاية للذهاب إلى هناك. أو ربما تظهر بعض الأنواع الجديدة تمامًا من العلاقات الاقتصادية للتعامل مع وجود مليارات الكيانات الغيرية على نحوٍ تامٍّ في العالم (وهو الأمر الذي بالتأكيد يُعدُّ غير مسبوق).

(٣) حسدُ البشر وشرُّهم ومراعاتهم للغير

تتجاوز التفضيلات البشرية اللذَّة والبيتزا. إنها بالتأكيد تمتدُّ إلى مصلحة الآخرين. حتى آدم سميث، الذي يعدُّ أبا الاقتصاد الذي عادة ما يُقتبس كلامه عندما تكون هناك حاجة لتبرير الأنانية، بدأ كتابه الأول بالتأكيد على الأهمية القصوى للاهتمام بشئون الآخرين:24

مهما كانت درجة الأنانية المُفترضة في الإنسان، فمن الواضح أن هناك بعض المبادئ في طبيعته تجعلُه يهتمُّ بمصلحة الآخرين وتجعل سعادتهم ضرورية له، رغم أنه لا يستمدُّ أي شيء من ذلك سوى مُتعة رُؤيتها. ومن ذلك الشعور بالشفقة أو التعاطف، تلك العاطفة التي نشعر بها تجاه بؤس الآخرين عندما نراه أو يجعلُنا الآخرون نتصوَّرها على نحوٍ واضح للغاية. إن كوننا غالبًا ما نستمدُّ الحزن من أحزان الآخرين لهو أمر واقع واضح للغاية لا يتطلَّب أي أمثلة لإثباته.

في اللغة الاقتصادية الحديثة، الاهتمام بالآخرين عادة ما يندرج تحت موضوع «الغيرية».25 إن نظرية الغيرية مُصاغة على نحوٍ جيِّد إلى حدٍّ ما، ولها تبعات مُهمة على سياسة الضرائب من ضمن أمور أخرى. ويجب القول إن بعض الاقتصاديِّين يتعاملون مع الغيرية باعتبارها شكلًا آخر من الأنانية المصمَّمة لتمدَّ المُعطي «بتوهُّج دافئ».26 هذا بالطبع احتمال تحتاج الروبوتات لأن تكون على وعيٍ به عند تفسيرها للسلوك البشري، ولكن دعنا في هذا المقام نُؤمن بغيريَّة البشر ونفترض أنهم يهتمُّون بالآخرين بالفعل.

أسهل طريقة للنظر في الغيرية هي تقسيم تفضيلات الفرد إلى نوعَين؛ هما: التفضيلات المتعلقة بمصلحته الشخصية والتفضيلات المتعلقة بمصلحة الآخرين. (هناك جدل كبير حول ما إذا كان بالإمكان الفصل بين الاثنين على نحوٍ تامٍّ، لكنَّني سأُنحِّي هذا الأمر جانبًا.) تشير المصلحة الشخصية إلى سمات حياة الفرد الذاتية، مثل المأوى والشعور بالدفء والحصول على الطعام والأمان وما إلى ذلك، المرغوب فيها في حدِّ ذاتها وليس بالنظر إلى سمات حياة الآخرين.

لجعل هذا المفهوم واضحًا أكثر، دعنا نفترض أن العالم يعيش به شخصان هما أليس وبوب. تتألف منفعة أليس الإجمالية من قيمة مصلحتها الشخصية مضافًا إليها عامل ما وهو ﻫأ ب مع ضرب الناتج في قيمة مصلحة بوب الشخصية. إن «عامل الاهتمام» ﻫأ ب يشير إلى مدى اهتمام أليس بمصلحة بوب. وعلى نحوٍ مماثل، تتألف منفعة بوب الإجمالية من قيمة مصلحته الشخصية مضافًا إليها عامل اهتمام ما وهو ﻫب أ مع ضرب الناتج في قيمة مصلحة أليس الشخصية، بحيث يشير ﻫب أ إلى مدى اهتمام بوب بمصلحة أليس.27 يُحاول روبي مساعدة كل من أليس وبوب، مما يعني (دعنا نقُل) تعظيم مجموع المنفعتين. ومن ثم يحتاج روبي إلى الانتباه ليس فقط إلى المصلحة الفردية لكلٍّ منهما، ولكن أيضًا إلى كيف يهتمُّ كلٌّ منهما بمصلحة الآخر.28
إن علامة معاملي الاهتمام ﻫأ ب وﻫب أ مهمة جدًّا. على سبيل المثال، إذا كان ﻫأ ب موجبًا، فإن أليس «مراعية للغير»؛ أي تستمد بعض السعادة من تحقق مصلحة بوب. وكلما كان هذا العامل موجبًا أكثر، كانت أليس على استعداد للتضحية ببعض مصلحتها الشخصية لمساعدة بوب. وإن كان هذا العامل صفرًا، فأليس أنانية تمامًا؛ أي إن كان بإمكانها النجاة من العقاب، ستُحوِّل أي قدر من الموارد من بوب وتُوجِّهه إليها، حتى وإن تركت بوب في حالة بائسة ويتضوَّر جوعًا. عندما يجد روبي النفعي أن أليس أنانية وأن بوب مُراعٍ للغير، من الواضح أنه سيحمي بوب من أسوأ أفعال أليس. من المثير للاهتمام أن التوزان النهائي في الغالب سيخدم مصلحة أليس أكثر من مصلحة بوب، لكن قد تكون لديه سعادة إجمالية أكبر لأنه يهتم بمصلحتها. قد تشعر بأن قرارات روبي غير عادلة على نحو كبير إن خدمت مصلحة أليس أكثر من مصلحة بوب فقط لأنه أكثر مراعاة للغير منها: هل عليه أن يستاء من هذه النتيجة ويصبح غير سعيد؟29 حسنًا، قد يفعل ذلك لكن هذا سيكون نموذجًا مختلفًا؛ وهو النموذج الذي يتضمَّن مُصطلحًا للاستياء فيما يتعلَّق بالاختلافات في خدمة المصلحة. في نموذجنا البسيط، سيتقبل بوب النتيجة. في واقع الأمر، في حالة التوازن، سيُقاوم بوب أيَّ محاولة لتحويل الموارد من أليس إلى نفسه، نظرًا لأن هذا سيقلل من سعادته الإجمالية. إن ظننت أنَّ هذا غير واقعي بالمرة، فتأمَّل الحالة التي تكون فيها أليس ابنة بوب الحديثة الولادة.
الحالة المُلغزة حقًّا بالنسبة إلى روبي ستكون عندما يكون العامل ﻫأ ب سالبًا؛ ففي هذه الحالة، تكون أليس شريرة حقًّا. سأستخدم هنا المصطلح «الغيرية السالبة» للإشارة إلى مثل هذه التفضيلات. وكما هو الحال مع هاريت السادية المذكورة قبل ذلك، هذا لا يتعلَّق بالأنانية والحقد الشائعَين، بحيث تكون أليس سعيدةً لاقتناص نصيب بوب من الكعكة حتى تزيد نصيبها. الغيرية السالبة تعني أن أليس تستمدُّ سعادتها من عدم تحقُّق مصلحة الآخرين، حتى وإن بقيت مصلحتها الشخصية كما هي دون تغيير.
في البحث الذي قدم فيه هورشاني مصطلح نفعية التفضيلات، نسب الغيرية السالبة إلى «السادية والحسد والاستياء والحقد» وحاجج بأنها يجب تجاهلها عند حساب المجموع الإجمالي للمنفعة البشرية في أي مجموعة سكانية:

لا يمكن لأي قدْر من الاهتمام بشخصٍ ما أن يفرض عليَّ التزامًا أخلاقيًّا بمساعدته في إيذاء شخصٍ آخر.

يبدو هذا أحد المجالات الذي من المعقول فيه بالنسبة لمُصمِّمي الآلات الذكية أن يُحاولوا (بحذَر) التأثير على النتائج من أجل تحقيق العدالة.

لسوء الحظ، الغيرية السالبة أكثر شيوعًا بكثيرٍ مما قد يتوقَّعه المرء. إنها لا تنشأ من السادية والحقد30 بقدر ما تنشأ من الحسد والاستياء وعاطفتهما العكسية، والتي أُسمِّيها «الفخر» (وذلك لعدم وجود كلمة أدق يُمكنني استخدامها). إذا كان بوب يحسد أليس، فهو يشعر بالحزن بسبب «الاختلاف» فيما بينهما فيما يتعلَّق بتحقُّق مصلحتهما؛ فكلما كان الاختلاف أكبر، زاد حزنه. على الجانب الآخر، إن كانت أليس فخورة بتفوُّقها على بوب، فإنها تستمد السعادة ليس فقط من تحقُّق مصلحتها الشخصية، وإنما أيضًا من حقيقة أن مصلحتها تحققت على نحوٍ أكبر من مصلحته. ومن السهل إثبات، على نحوٍ رياضي، أن الفخر والحسد يعملان بنفس الطريقة تقريبًا مثل السادية؛ فهما يجعلان أليس وبوب يستمدان السعادة فقط من عدم تحقُّق مصلحة كلٍّ منهما لأن عدم تحقُّق مصلحة بوب يزيد من فخر أليس، في حين أن عدم تحقق مصلحة أليس يُقلِّل من حسد بوب.31

ذكر لي جيفري ساكس، عالم اقتصاد التنمية المعروف، قصةً أوضحت تأثير هذه الأنواع من التفضيلات في تفكير الناس. كان ساكس في بنجلاديش بعد فترةٍ وجيزة من تعرُّض إحدى مناطق البلاد لفيضان كبير. كان يتحدَّث إلى أحد المزارعين الذي فقد منزله وحقوله وكل حيواناته وأحد أبنائه. وقال له: «أنا حزين بشدة من أجلك؛ لا بدَّ أنك تعيس للغاية.» كان رد المزارع: «لا، على الإطلاق.» وأضاف: «أنا سعيد جدًّا لأنَّ جاري الملعون فقد زوجته وكل أبنائه أيضًا.»

التحليل الاقتصادي للفخر والحسد — بخاصة في سياق المكانة الاجتماعية والاستهلاك التفاخري — برز من خلال عمل عالم الاجتماع الأمريكي ثورشتاين فيبلن الذي عرض عمله «نظرية الطبقة المترفة» الذي ظهر في عام ١٨٩٩ التبعات السيئة لهذه التوجهات.32 وفي عام ١٩٧٧، نشر عالم الاقتصاد البريطاني فريد هيريش كتابه «الحدود الاجتماعية للنمو»33 الذي قدم فيه فكرة «السِّلع الموضعية». إن السلعة الموضعية هي أي شيء — والذي قد يكون سيارة أو منزلًا أو ميدالية أوليمبية أو نوعَ تعليم أو دخلًا أو لكنة — يستمد قيمته المدركة ليس فقط من مزاياه الجوهرية ولكن أيضًا من خصائصه النسبية، بما في ذلك خصائص الندرة والتفوق على الآخرين. إن السعي وراء السلع الموضعية، الذي يقوده الفخر والحسد، يكون له طابع لعبة المجموع الصفري، بمعنى أن أليس لا يُمكنها تحسين موضعها النِّسبي دون تأزيم الموضع النسبي لبوب، والعكس صحيح. (لا يبدو أن هذا يمنع إنفاق مبالغ ضخمة في هذا المسعى.) يبدو أن السِّلع الموضعية كثيرة في الحياة الحديثة، لذا ستحتاج الآلات إلى فهم أهميتها الكلية في تفضيلات الأفراد. علاوة على ذلك، يرى مُنظِّرو نظرية الهوية الاجتماعية أن العضوية في جماعة والانتماء إليها والمكانة الإجمالية للجماعة بالنسبة إلى الجماعات الأخرى تُعدُّ عناصر أساسية لتقدير البشر لذواتهم.34 ومن ثم من الصعب فهم السلوك البشري دون فهم كيف يرى الأفراد أنفسهم كأعضاء في جماعات، سواء كانت تلك الجماعات أنواعًا بيولوجية أو أُممًا أو جماعاتٍ عرقية أو أحزابًا سياسية أو مهنًا أو أسرًا أو مُشجِّعين لفريق كرة قدم مُعين.

كما هو الحال مع السادية والحقد، قد نرى أن روبي يجبُ ألا يعطي أهميةً كبيرة للفخر والحسد أو لا يُعيطهما أهمية على الإطلاق في خططه لمساعدة أليس وبوب. مع ذلك، هناك بعض الصعوبات في هذا الطرح. فنظرًا لأنَّ الفخر والحسد يتعارضان مع اهتمام أليس بمصلحة بوب، فقد لا يكون من السهل الفصل بينهما. ربما تكون أليس مهتمَّة بشدة بمصلحة بوب، لكنها تحسده أيضًا؛ فمن الصعب تمييز أليس هذه من أليس أخرى لديها اهتمام قليل بمصلحة بوب، ولكن ليس لديها حسد على الإطلاق تجاهه. بالإضافة إلى ذلك، في ضوء شيوع الفخر والحسد في التفضيلات البشرية، من المُهم التفكير بحذَر شديد في تبعات تجاهلهما. فقد يكونان ضروريَّين لتقدير الذات، خاصة في شكليهما الإيجابيَّين؛ احترام الذات وتقدير الآخرين.

دعني أعيد التأكيد على نقطة ذكرتها قبل ذلك، وهي أن الآلات المصممة على نحوٍ ملائم «لن تتصرف مثل من تُلاحظهم»، حتى وإن كانت تلك الآلات تتعلَّم تفضيلات شياطين ساديين. من المُمكن، في واقع الأمر، أننا نحن البشر إن وجدنا أنفسنا في الوضع غير المألوف المُتمثل في التعامل مع كيانات غيرية بالكامل على نحوٍ يوميٍّ، قد نتعلم أن نكون أناسًا أفضل؛ أي نكون أكثر غيرية ويقلُّ توجيه الفخر والحسد إلى أفعالنا.

(٤) غباء البشر وعاطفيتهم

ليس المقصود من عنوان هذا القسم الإشارة إلى مجموعة فرعية معينة من البشر. إنه يشير إلينا جميعًا. إننا جميعًا أغبياء على نحوٍ غير معقول في ضوء المعيار المُتعذِّر الوصول إليه، الخاص بالعقلانية التامة، وكلنا مُعرَّضون لتقلبات العواطف المُختلفة التي، إلى حدٍّ كبير، تتحكم في سلوكنا.

دعنا نبدأ بالغباء. يُعظِّم الكيان العقلاني تمامًا من التحقيق المتوقَّع لتفضيلاته عبر كل الحيوات المستقبلية المُمكنة التي يُمكن أن يختار أن يعيشها. لا يُمكنني كتابة عددٍ يصف تعقُّد مشكلة اتخاذ القرار هذه، لكنني أجد التجربة الفكرية التالية مفيدةً في هذا الشأن. أولًا: لاحظ أن عدد اختيارات التحكم الحركي التي يتَّخذها أيُّ شخصٍ في حياته تصلُ إلى عشرين تريليون. (انظر المُلحق «أ» للاطلاع على الحسابات التفصيلية.) ثانيًا: دعنا نرى إلى أي مدى ستُوصِّلُنا القوة المفرطة بمساعدة كمبيوتر سيث لويد المحمول الذي يُلامس أقصى حدود القدرات الفيزيائية المُمكنة، الذي هو أسرع مليار تريليون تريليون مرةً من أسرع كمبيوتر في العالم. سنعهد إليه بمهمة عدِّ كلِّ التسلسلات الممكنة للكلمات الإنجليزية (ربما كتدريبٍ إحمائي لمكتبة بابل التي يُصورها خورخ لويس بورخس)، وسنجعلُه يعمل لمدة عام. السؤال الآن: ما طول التسلسلات التي يمكنه عدُّها في ذلك الوقت؟ ألف صفحة من النصوص؟ مليون صفحة؟ لا. ١١ كلمة فقط. يعطيك هذا لمحة عن صعوبة تصميم أفضل حياة مُمكنة بها عشرون تريليون فعل. باختصار، إننا بعيدون جدًّا عن العقلانية تمامًا مثل بُعد البزاق عن السيطرة على المركبة الفضائية «إنتربرايز» التي تسير بسرعة ٢٥٠ مليون كيلومتر في الثانية. نحن «ليس لدَينا على الإطلاق أي فكرة» عن الشكل الذي ستكون عليه الحياة المختارة على نحوٍ عقلاني.

يدلُّ هذا على أن البشر سيتصرَّفون عادةً بطرُق تتعارض مع تفضيلاتهم الشخصية. على سبيل المثال، عندما خسر لي سيدول مباراته في لعبة جو أمام برنامج «ألفا جو»، لعب حركة واحدة أو أكثر «أكَّدت» أنه سيخسر، واستطاع البرنامج (في بعض الحالات على الأقل) اكتشاف قيامه بذلك. لكن سيكون من الخطأ أن يستنتج البرنامج أن ليو سيدول يُفضِّل الخسارة. بدلًا من ذلك، سيكون من المعقول استنتاج أن ليو سيدول يُفضِّل الفوز لكن لديه بعض القصور الحوسبي الذي منعه من اختيار الحركة الصحيحة في كل الحالات. ومن ثم، من أجل فهم سلوك ليو سيدول واكتساب معلوماتٍ عن تفضيلاته، يجب على الروبوت الذي يتبع المبدأ الثالث (مصدر المعلومات الأساسي للتفضيلات البشرية هو السلوك البشري) معرفة بعض المعلومات عن العمليات المعرفية التي تُنتج هذا السلوك. فهو لا يستطيع افتراض أن سيدول عقلاني.

هذا يُمثِّل مشكلةً بحثية مهمة جدًّا بالنسبة إلى باحثي الذكاء الاصطناعي وعلم النفس وعلم الأعصاب؛ وهي فهم ما يكفي عن المعرفة البشرية35 بحيث يُمكننا (أو بالأحرى، يمكن لآلاتنا النافعة) القيام «بالهندسة العكسية» للسلوك البشري للوصول إلى التفضيلات الأساسية العميقة، بالمدى الذي هي عليه. استطاع البشر القيام بقدْر من هذا، حيث عرفوا قيمهم من الآخرين من خلال بعض المساعدة من علم البيولوجيا، لذا، يبدو هذا مُمكنًا. إن لدى البشر ميزة؛ بإمكانهم استخدام بنيتهم المعرفية لمحاكاة تلك الخاصة بغيرهم من البشر دون معرفة ماهية تلك البنية؛ «إن أردتَ شيئًا ما، فسأفعل نفس ما تفعلُه أمي تمامًا، لذا، لا بدَّ أن أُمي تُريد هذا الشيء».

ليس لدى الآلات تلك الميزة. إن بإمكانها مُحاكاة الآلات الأخرى بسهولة، ولكن ليس البشر. ومن غير المُحتمل أن يكون لديها قريبًا وصولًا لنموذجٍ كامل للمعرفة البشرية، سواء عام أو مُصمَّم لأفراد بعينهم. بدلًا من ذلك، من الأفضل من الناحية العملية النظر إلى الطرق الأساسية التي ينحرف بها البشر عن العقلانية ودراسة كيفية تعلم التفضيلات من السلوك الذي يبدي تلك الانحرافات.

هناك اختلاف واحد واضح بين البشر والكيانات العقلانية والذي يتمثَّل في أننا، في أي لحظة، لا نختار من بين كل الخطوات الأولى المُمكنة لكل الحيوات المستقبلية الممكنة. ونحن حتى لسنا قريبين من هذا. بدلًا من هذا، نحن في العادة غارقون في تسلسُل متداخل بشدة من «الروتينات الفرعية». بوجه عام، نحن نسعى إلى تحقيق أهداف قريبة الأجل بدلًا من تعظيم تحقيق التفضيلات عبر حيوات مُستقبلية، ويُمكننا التصرُّف فقط تبعًا لحدود الروتين الفرعي الموجودين فيه في الوقت الحاضر. أنا الآن، على سبيل المثال، أكتب هذه الجملة: يُمكنني اختيار كيفية الاستمرار بعد علامة النقطتَين، لكن لم يخطُر لي أبدًا أن أتساءل إن كان عليَّ التوقُّف عن كتابة الجملة والانضمام إلى أحد البرامج التدريبية الخاصَّة بغناء الراب على الإنترنت أو إضرام النار في المنزل والاتِّصال بشركة التأمين أو فعل أيِّ شيءٍ من ملايين الأشياء التي «يُمكنني» فعلها بعد ذلك. إن الكثير من تلك الأشياء الأخرى قد تكون بالفعل أفضل مما أفعلُه، لكن، في ضوء تسلسل الالتزامات الخاص بي، يبدو الأمر وكأن تلك الأشياء الأخرى غير موجودة.

إذن، يبدو أن فهم الفعل البشريِّ يتطلَّب فهم تسلسل الروتينات الفرعية هذا (الذي قد يكون فرديًّا إلى حدٍّ كبير): الروتين الفرعي الذي يُنفِّذه الشخص حاليًّا، والهدف القريب الأجل الذي يجري السعي من أجل تحقيقه داخل الروتين الفرعي هذا، وكيفية ارتباطهما بالتفضيلات الطويلة الأجل الأكثر عُمقًا. بوجهٍ عام أكثر، يبدو أن تعلم التفضيلات البشرية يتطلب معرفة الهيكل الفعلي للحيوات البشرية. ما هي كل الأشياء التي يمكن أن نقوم بها نحن البشر، سواء على نحوٍ فردي أو مُشترك؟ ما الأنشطة المميزة للثقافات وأنواع الأفراد المختلفة؟ إن هذين السؤالين مُثيران للاهتمام ويحتاجان إلى البحث. من الواضح أنهما ليس لهما إجابة ثابتة لأننا نحن البشر نضيف أنشطة وهياكل سُلوكية جديدة لمُخزوننا منهما طوال الوقت. لكن حتى الإجابات الجزئية والمؤقتة ستكون مفيدةً جدًّا لكل أنواع النظم الذكية المصممة لمساعدة البشر في حيواتهم اليومية.

هناك خاصية واضحة أخرى للأفعال البشرية والتي تتمثَّل في أنها عادة ما تقودها العاطفة. في بعض الحالات، هذا شيء جيد؛ فالعواطف مثل الحب والعرفان بالجميل تعدُّ بالطبع جزئيًّا جزءًا أساسيًّا من تفضيلاتنا، والأفعال التي تنتج عنها يمكن أن تكون عقلانية، حتى وإن لم تكن مقصودة على نحوٍ تام. وفي حالات أخرى، تؤدي الاستجابات العاطفية إلى أفعالٍ حتى نحن البشر الأغبياء نرى أنها ليست عقلانية على الإطلاق؛ بعد حدوثها، بالطبع. على سبيل المثال، إن هاريت الغاضبة والمحبطة التي ضربت أليس العنيدة البالغة من العمر عشرة أعوام قد تندم على ما قامت به على الفور. يجب على روبي، الملاحظ لفعل هاريت، (كما هو مُتوقع وإن لم يكن في كل الأحوال) أن يعزو هذا التصرف إلى الغضب والإحباط وعدم ضبط النفس وليس إلى السادية المقصودة لذاتها. وحتى يتم ذلك، يجب أن يكون لدى روبي بعض الفهم للحالات العاطفية البشرية، بما في ذلك أسبابها وكيفية تطورها عبر الوقت استجابة للمُثيرات الخارجية وتأثيراتها على الفعل. بدأ علماء الأعصاب يضعون أيديهم على آليات بعض الحالات العاطفية وعلاقاتها بالعمليات المعرفية الأخرى،36 وهناك بعض الأبحاث المُفيدة عن الطرق الحاسوبية المتعلِّقة باكتشاف الحالات العاطفية البشرية وتوقعها والتعامل معها،37 لكن ما زال هناك الكثير الذي يجبُ معرفته. مرةً أخرى، الآلات لديها مشكلة فيما يتعلَّق بالعواطف؛ فهي لا يُمكنها إنتاج محاكاةٍ داخلية لأي تجربةٍ لتحديد الحالة العاطفية التي سيُنتجها.

بالإضافة إلى تأثير العواطف على أفعالنا؛ فهي تكشف معلومات مفيدة عن تفضيلاتنا الأساسية. على سبيل المثال، ربما كانت أليس الصغيرة ترفُض أداء فروضها المنزلية، وهاريت غاضبة ومحبطة لأنها تريد حقًّا أن يكون لأليس أداء جيد في المدرسة وأن تكون لديها فرصة أفضل في الحياة مما توفَّرت لهاريت. إذا كان روبي مُستعدًّا لفهم هذا — حتى إن لم يختبر ذلك بنفسه — فقد يتعلَّم الكثير من أفعال هاريت غير العقلانية. لذا، يجب أن يكون من المُمكن إنشاء نماذج أولية للحالات العاطفية البشرية تكفي لتجنُّب الأخطاء الأكثر شناعة في استنتاج التفضيلات البشرية من السلوك.

(٥) هل للبشر تفضيلات حقًّا؟

إن الافتراض الأساسي الذي يقوم عليه هذا الكتاب يتمثَّل في وجود حيوات مُستقبلية نسعى إلى الوصول إليها، وأخرى نرغب في تجنُّبها، مثل التعرض للانقراض على المدى القصير أو التحوُّل إلى مزارع بطاريات بشرية على غرار ما حدث في فيلم «المصفوفة». بهذا المعنى، نعم، بالتأكيد البشر لديهم تفضيلات. لكن بمجرَّد أن نغوص في تفاصيل الكيفية التي سيفضلون أن تكون عليها حيواتهم، تصبح الأمور أكثر غموضًا.

(٥-١) عدم اليقين والخطأ

تتمثَّل إحدى الخصاص الواضحة للبشر، إن لاحظتها، في أنهم دائمًا لا يعرفون ما يريدون. على سبيل المثال، يكون للأشخاص المُختلفين استجابات مختلفة تجاه فاكهة الدوريان؛ البعض يجد «أنها تتجاوز كل أنواع الفاكهة الأخرى في العالم في الطعم»38 في حين أن آخرين يُشبِّهونها ﺑ «ماء الصرف الصحي والقيء الجاف والرائحة الكريهة التي يُخرجها الظربان والماسحات الجراحية المُستعملة».39 تجنَّبتُ مُتعمِّدًا تجربة فاكهة الدوريان قبل كتابة هذا الكتاب، حتى أستطيع الحفاظ على حياديتي في هذه النقطة: أنا ببساطة لا أعرف إلى أي الفريقَين سأنتمي. نفس الشيء يمكن أن يُقال بالنسبة إلى العديد من الأشخاص الذين يُفكِّرون في حيواتهم العملية المستقبلية أو شركاء حياتهم المستقبليين أو أنشطة ما بعد التقاعُد المستقبلية وهكذا.
هناك على الأقل نوعان من عدم اليقين فيما يتعلَّق بالتفضيلات. الأول عدم يقين معرفي حقيقي، مثل ذلك الذي خابرته فيما يتعلَّق بتفضيلي لفاكهة الدوريان.40 لن يُنهي أي قدْر من التفكير هذا النوع من عدم اليقين. هناك حقيقة تجريبية للأمر، ويمكنني معرفة المزيد من خلال تجربة بعض حبات تلك الفاكهة أو مقارنة الحمض النووي الخاص بي مع ذلك الخاص بمُحبي تلك الفاكهة وكارهيها أو غير ذلك. وينشأ النوع الثاني عن بعض القصور الحوسبي: عند النظر لوضعين في لعبة جو، أنا غير متأكِّد أيهما أُفضل لأن تبعات كل منهما خارج نطاق قدرتي على التحديد تمامًا.

ينشأ عدم اليقين أيضًا من حقيقة أن الاختيارات التي تُتاح أمامنا عادة ما تكون محدَّدة على نحوٍ غير كامل؛ أحيانًا على نحوٍ غير كامل تمامًا بحيث يُمكن اعتبارها بالكاد كاختيارات. على سبيل المثال، عندما تُصبح أليس على وشك إنهاء دراستها الثانوية، قد يعرض عليها أحد مُستشاري التوظيف الاختيار ما بين أن تعمل في وظيفة «أمينة مكتبة» أو «عاملة بمنجم فحم»؛ قد تقول، على نحو معقول تمامًا: «أنا لستُ على يقين فيما يتعلَّق بتفضيلي في هذا الشأن». هنا، عدم اليقين ينشأ من عدم يقين معرفي خاصٍّ بتفضيلاتها فيما يتعلق، لنقُل، بغبار الفحم في مقابل غبار الكتب؛ ومن عدم يقين حوسبي وهي تُحاول جاهدة تحديد كيف قد تنجح في كل من هذين الاختيارين المتعلِّقين بعملها؛ ومن عدم يقين عادي فيما يتعلق بالعالم، مثل شُكوكها بشأن الصلاحية الطويلة الأجل لمنجم الفحم المحلي الخاص بها.

لتلك الأسباب، إنها لفكرة سيئة أن نربط التفضيلات البشرية باختيارات بسيطة بين خيارات موصوفة على نحوٍ غير كامل من المتعذِّر تقييمها وتتضمن عناصر من المرغوبية غير المعلومة. توفر تلك الاختيارات مُؤشِّرًا غير مباشر على التفضيلات المتضمنة، لكنها ليست جزءًا من تلك التفضيلات. وهذا ما جعلني أستعرض مفهوم التفضيلات فيما يتعلَّق «بالحيوات المستقبلية»؛ على سبيل المثال، بتخيُّل أن بإمكانك مشاهدة، على نحو مضغوط، فيلمَين مُختلفين لحياتك المُستقبلية ثمَّ التعبير عن أيهما تُفضِّل (ارجع إلى الفصل الثاني). إن التجربة الفكرية هذه بالطبع من المستحيل تنفيذها على أرض الواقع، لكن يُمكن للمرء أن يتصوَّر أنه في العديد من الحالات سينشأ تفضيل واضح قبل فترة طويلة من معرفة كل تفاصيل كلِّ فيلم ومُشاهدتها بالكامل. قد لا تعرف مقدمًا أيهما ستُفضِّل، حتى لو أُعطيت مُلخَّصًا لحبكة كلٍّ منهما؛ لكن هناك إجابة للسؤال الفعلي، بناءً على ما أنت عليه الآن، تمامًا كما أن هناك إجابة على سؤال ما إذا كنت ستُحب فاكهة الدوريان عندما تُجرِّبها.

إن حقيقة أنك قد تكون غير مُتيقِّن بشأن تفضيلاتك الشخصية لا تُسبب أي مشكلات بعينها فيما يتعلَّق بالطرح المُعتمد على التفضيلات الخاص بالذكاء الاصطناعي النافع على نحوٍ مُثبت. في الحقيقة، هناك بالفعل بعض الخوارزميات التي تضع في اعتبارها عدم يقين روبي وهاريت بشأن تفضيلات هاريت وتسمح باحتمالية أنَّ هاريت ربما تكتسب معلومات بشأن تفضيلاتها في نفس الوقت الذي يفعل فيه روبي ذلك.41 وكما أن عدم يقين روبي بشأن تفضيلات هاريت يُمكن تقليله بملاحظة سلوك هاريت، فإن عدم يقين هاريت بشأن تفضيلاتها الشخصية يُمكن تقليله بملاحظة ردود أفعالها تجاه التجارب. لا يجب أن يكون هذان النوعان من عدم اليقين مُرتبطَين على نحوٍ مباشر؛ كما أن روبي ليس بالضرورة أقل تيقنًا من هاريت فيما يتعلق بتفضيلاتها. على سبيل المثال، قد يكون روبي قادرًا على اكتشاف أن هاريت لدَيها استعداد وراثي مُسبق قوي للاشمئزاز من رائحة فاكهة الدوريان. في هذه الحالة، سيكون لديه عدم يقين قليل للغاية بشأن تفضيلها لتلك الفاكهة، حتى لو ظلَّت على جهلٍ تامٍّ بهذا الأمر.
إن كانت هاريت «غير مُتيقنة» بشأن تفضيلاتها الخاصة بالأحداث المستقبلية، فمن المرجح إلى حدٍّ كبير أن تكون أيضًا «مخطئة». على سبيل المثال، قد تكون مُقتنعةً بأنها لن تُحبَّ الدوريان (أو، لنقل، البيض الأخضر أو لحم فخذ الخنزير)؛ ومن ثمَّ ستتجنَّبها مهما حدث، لكنها قد تجد في النهاية أنها رائعة — إن وضع أحد عن طريق الخطأ البعض منها في سلطة الفاكهة الخاصة بها في أحد الأيام. ومن ثمَّ لا يستطيع روبي افتراض أن أفعال هاريت تعكس معرفة دقيقة بتفضيلاتها الشخصية؛ فالبعض قد يكون مُعتمدًا تمامًا على التجربة، في حين أن البعض الآخر قد يكون قائمًا على نحوٍ رئيسيٍّ على الافتراض أو الانحياز أو الخوف من المجهول أو التعميمات التي ليست لها أسُس قوية.42 إن روبي اللبق على نحوٍ ملائم يُمكن أن يكون مفيدًا للغاية لهاريت فيما يتعلَّق بتنبيهها لمثل هذه المواقف.

(٥-٢) التجربة والذكريات

بعض علماء النفس شكَّك في صحة فكرة أن هناك ذاتًا تفضيلاتها مُهيمنة بالطريقة التي اقترحها مبدأ استقلالية التفضيلات الخاصُّ بهورشاني. من أبرز علماء النفس هؤلاء زميلي السابق في بيركلي دانيال كانمان. يُعدُّ كانمان، الذي حصل على جائزة نوبل لعام ٢٠٠٢ لعمله في مجال الاقتصاد السلوكي، واحدًا من أكثر المفكرين تأثيرًا في موضوع التفضيلات البشرية. وكتابه الذي ظهر حديثًا «التفكير، السريع والبطيء»43 يعرض ببعض التفصيل سلسلة من التجارب التي أقنعته بوجود ذاتين — «الذات المُستشعرة» و«الذات المُتذكِّرة» — تتعارض تفضيلاتهما.
الذات المُستشعرة هي تلك التي قيست باستخدام «مقياس اللذة»، الذي تخيَّل الاقتصاديُّ البريطاني المُنتمي إلى القرن التاسع عشر فرانسيس إدجوورث أنه «أداة كاملة على نحوٍ مثاليٍّ، آلة نفسية فيزيائية، تُسجِّل باستمرار ذروة اللذة التي يختبرها الفرد، على نحوٍ دقيق وفقًا لحكم الوعي».44 وفقًا للنفعية القائمة على اللذَّة، القيمة الإجمالية لأيِّ تجربة بالنسبة لأيِّ فرد هي ببساطة مجموع القيم القائمة على اللذة لكلِّ لحظة أثناء التجربة. وينطبق هذا المفهوم، بقدْرٍ مُتساوٍ، على تناول الأيس كريم أو عيش حياة بأكملها.

إن الذات المُتذكِّرة، على الجانب الآخر، هي تلك التي تتولَّى القيادة عند اتخاذ أي قرار. تختار تلك الذات تجارب جديدة اعتمادًا على «ذكريات» تجارب سابقة ومرغوبيَّتها. تقترح تجارب كانمان أن الذات المُتذكِّرة لديها أفكار مُختلفة جدًّا عن الذات المُستشعرة.

تتضمَّن أبسط تلك التجارب في فهمها غمْر يد أحد المبحُوثين في الماء البارد. هناك نظامان مختلفان؛ في الأول، يكون الغمرُ لمدة ٦٠ ثانية في ماءٍ درجة حرارته ١٤ درجة مئوية؛ وفي الثاني، يكون لمدة ٦٠ ثانية في ماء درجة حرارته ١٤ درجة مئوية ثم لمدة ٣٠ ثانية في ماء درجة حرارته ١٥ درجة مئوية. (درجات الحرارة هذه مُماثلة لدرجات حرارة المحيط في شمال كاليفورنيا؛ وهي باردة بالقدر الكافي لارتداء الجميع تقريبًا لبذلة غوص في الماء.) قال كلُّ المبحوثين إن التجربة كانت غير سارة. وبعد تجربة كلا النظامَين (أيًّا كان الترتيب، مع وجود ٧ دقائق فيما بينهما)، طُلب من المبحوث اختيار أيهما سيودُّ تكراره. فضَّل الغالبية العظمى من المبحوثين تكرار النظام الثاني بدلًا من النظام الأول.

افترض كانمان أن النظام الثاني، من وجهة نظر الذات المُستشعرة، لا بد أنه «بالطبع أسوأ» من النظام الأول؛ لأنَّه يتضمَّن النظام الأول، «إلى جانب تجربة غير سارة أخرى». ومع ذلك، اختارته الذات المتذكرة. ربما تسأل عن السبب.

يتمثَّل تفسير كانمان في أن الذات المتذكرة تنظُر إلى الأمر، من خلال نظارة ملونة على نحو غريب بعض الشيء، مهتمة بنحو أساسي بقيمة «الذروة» (أعلى أو أقل قيمة للذة) وقيمة «النهاية» (قيمة اللذَّة في نهاية التجربة). يجري في الغالب تجاهُل مدة الأجزاء المختلفة للتجربة. إن مُستوى عدم الراحة الخاص بالذروة لكلٍّ من النظامَين متساوٍ، لكن مُستوى النهاية مختلف: في حالة النظام الثاني، الماء أكثر دفئًا بمقدار درجة واحدة. إن قيَّمَتِ الذاتُ المُتذكِّرة التجاربَ من خلال قيمتَي الذروة والنهاية، بدلًا من جمع قيم اللذة عبر الوقت، فإنَّ النظام الثاني سيكون أفضل، وهذا ما جرى التوصُّل إليه. يبدو أن نموذج الذروة والنهاية يُفسِّر العديد من النتائج الأخرى الغريبة على نحوٍ مُتساوٍ في الأدبيات الخاصة بالتفضيلات.

يبدو أن كانمان (ربما على نحوٍ ملائم) مُتحيِّر فيما يتعلق بالنتائج التي توصَّل إليها. إنه يؤكد على أن الذات المتذكِّرة «قد ارتكبت ببساطة خطأ»، واختارت التجربة الخاطئة لأن ذاكرتها معيبة وغير كاملة؛ إنه يرى هذا باعتباره «خبرًا سيئًا للمؤمنين بعقلانية الاختيار». على الجانب الآخر، كتب يقول: «لا يُمكن دعم أي نظرية عن الرفاهية تتجاهل ما يُريده الناس». افترض، على سبيل المثال، أن هاريت قد جرَّبت نوعَي المشروبات الغازية الشهيرين وأنها تُفضل الآن بقوة أحدهما؛ سيكون من الغريب إجبارها على تناول النوع الآخر اعتمادًا على جمع قراءات مقياس لذةٍ ما مأخوذة في كل تجربة.

حقيقة الأمر أنه لا يُوجَد قانون «يتطلَّب» تعريف تفضيلاتنا فيما يتعلق بالتجارب من خلال مجموع قِيَم اللذة عبر الوقت. صحيح أن النماذج الرياضية القياسية تُركِّز على تعظيم مجموع المكافآت،45 لكن الدافع الأصلي وراء هذا كان الملاءمة الرياضية. جاءت التبريرات لاحقًا في شكل افتراضاتٍ فنية ترى أنه من العقلانية اتخاذ القرار بناءً على جمع المكافآت،46 لكن تلك الافتراضات الفنية لا يجب أن تكون صحيحة في الواقع. افترض، على سبيل المثال، أن هاريت تختار بين نتيجتَين لقيم اللذَّة، هما: [١٠، ١٠، ١٠، ١٠، ١٠] و[٠، ٠، ٤٠، ٠، ٠]. من المُمكن تمامًا أن تُفضِّل التسلسل الثاني؛ فلا يُوجد قانون رياضي يُمكن أن يُجبرها على اتخاذ اختياراتٍ اعتمادًا على المجموع بدلًا من، لنقُل، القيمة القُصوى.

يعترف كانمان أن الوضع يتعقَّد أكثر بسبب الدَّور المحوري للتوقُّع والذكريات في الرفاهية. إن ذكرى تجربة سارَّة واحدة — يوم زواج المرء أو ميلاد طفل أو عصر يوم قُضي في قطف التوت الأسود وصُنع المربَّى — يُمكن أن تدعم المرء في سنوات العمل الشاق والإحباط. إن الذات المتذكرة ربما تُقيم ليس فقط التجربة في حدِّ ذاتها، وإنما أيضًا تأثيرها الإجمالي على القيمة المستقبلية للحياة من خلال تأثيرها على الذكريات المستقبلية. وعلى الأرجح إن الذات المتذكرة وليس المُستشعرة هي أفضل حكم على ما سيجري تذكره.

(٥-٣) الزمن والتغيير

غني عن البيان أن الأشخاص الراشدين في القرن الحادي والعشرين لن يرغبُوا في تقليد تفضيلات، لنقُل، المجتمع الروماني في القرن الثاني، الحافل بالقتل بسبب المُصارعة البشرية من أجل التسلية العامة، والاقتصاد القائم على العبودية والمجازر الوحشية للشعوب المهزومة. (لا حاجة لنا باستعراض الأمور الواضحة المقابلة لتلك السمات في المجتمع المعاصر.) تتطوَّر مقاييس الأخلاق بوضوح بمرور الوقت مع تطور حضارتنا أو انحدارها، إن شئت القول. هذا يُشير، بدوره، إلى أن الأجيال المستقبلية قد تستهجن توجُّهاتنا الحالية، لنقُل، تجاه التعامُل مع الحيوانات. لهذا السبب، من المُهم أن تكون الآلات المكلَّفة بتنفيذ التفضيلات البشرية قادرة على الاستجابة للتغييرات التي تحدُث في تلك التفضيلات بمرور الوقت بدلًا من الاستمرار على نفس التفضيلات. إن المبادئ الثلاثة المعروضة في الفصل السابع تستوعب تلك التغييرات بطريقة طبيعية، لأنها تتطلب أن تتعلَّم وتُنفِّذ الآلات تفضيلات البشر الحاليين — الكثير منهم، الذين كلهم مختلفون — بدلًا من مجموعة واحدة مثالية من التفضيلات أو تفضيلات مُصمِّمي الآلات الذين ربما يكونون قد ماتوا منذ فترة طويلة.47

إن احتمالية حدوث تغييرات في التفضيلات الأساسية للمجموعات السكانية البشرية عبر الزمن بطبيعة الحال تلفت الانتباه إلى المسألة المتعلِّقة بالطريقة التي تتكوَّن بها تفضيلات كل فرد ومرونة تفضيلات البالغين. إن تفضيلاتنا بالتأكيد تتأثر بجوانبنا البيولوجية: على سبيل المثال، إننا في الغالب نتجنَّب الألم والجوع والعطش. لكن جوانبنا البيولوجية ظلت ثابتة إلى حدٍّ ما، لذا، التفضيلات المُتبقية يجب أن تكون قد نشأت عن مؤثِّرات ثقافية وعائلية. من المُحتمل جدًّا أن الأطفال يُنفِّذُون باستمرار نوعًا من التعلم المعزَّز العكسي للتعرف على تفضيلات الآباء والأقران حتى يُفسِّروا سلوكهم، وبعد ذلك يتبنَّى الأطفال تلك التفضيلات وتُصبح خاصَّةً بهم. وحتى كبالغين، تتطوَّر تفضيلاتُنا بسبب تأثير الإعلام والحكومة والأصدقاء وأرباب الأعمال وتجاربنا الشخصية المُباشرة. قد يكون صحيحًا، على سبيل المثال، أنَّ الكثير من مُؤيِّدي ألمانيا النازية لم يبدءوا مسيرتهم كساديِّين متعطشين للإبادة الجماعية ونقاء العرق.

يُمثِّل تغيير التفضيلات تحديًا لنظريات العقلانية على المُستوى الفردي والمجتمعي. على سبيل المثال، يبدو أن مبدأ هورشاني الخاص باستقلالية التفضيلات يقول إن الجميع له الحق في امتلاك التفضيلات التي يُريدها ولا يحقُّ لأي شخص آخر أن يُغيرها. مع ذلك، وبعيدًا عن كون التفضيلات قابلة للتغيير، فإنها يجري تغييرها وتعديلها طوال الوقت، من خلال كل تجربةٍ يمر بها المرء. لا يسعُ الآلات إلا تعديل التفضيلات البشرية لأنَّ الآلات تُعدِّل التجارب البشرية.

من المهم، على الرغم من كونه أحيانًا صعبًا، التَّفرقة بين تغيير التفضيلات وتحديث التفضيلات، وهو الأمر الذي يحدُث عندما تتعلَّم هاريت غير المُتيقنة في البداية المزيد عن تفضيلاتها الشخصية من خلال التَّجربة. يُمكن أن يملأ تحديث التفضيلات الفجوات في المعرفة الذاتية وربما يؤكد أكثر التفضيلات التي كانت في السابق مؤقَّتة وذات أساسٍ ضعيف. إن تغيير التفضيلات، على الجانب الآخر، ليس عمليةً تنتُج عن امتلاك أدلةٍ إضافية عن التفضيلات الفعلية للمرء. في الحالة القصوى، يُمكنك تخيل أنه ناتج عن تناول المُخدِّرات أو حتى الخضوع لجراحة دماغية؛ فهو ينشأ عن عمليات قد لا نفهمُها أو حتى نُوافق عليها.

يعدُّ تغيير التفضيلات مُشكلةً لسببَين على الأقل. السبب الأول هو أنه ليس من الواضح التفضيلات التي يجب أن تُهيمن عند اتخاذ أحد القرارات: التفضيلات التي تكون لدى هاريت في وقت اتخاذ القرار أم تلك التي ستكون لديها أثناء وبعد الأحداث التي تنتُج عن قرارها. في مجال علم الأخلاق البيولوجية، على سبيل المثال، تُعَدُّ هذه مُعضلةً واقعيةً جدًّا لأنَّ تفضيلات الناس بشأن التدخُّلات الطبية والرعاية في مرحلة الاحتضار تتغيَّر، عادة على نحوٍ هائل، بعد أن يُصبحُوا مرضى بشدَّة.48 وبافتراض أن تلك التغييرات لم تنتج بسبب ضعف القُدرات العقلية، فتفضيلات من هي التي يجب احترامها؟49

السبب الثاني لكون تغيير التفضيلات مُشكلةً هو أنه يبدو أنه ليس هناك أساس عقلاني واضح لتغيير المرء لتفضيلاته (مقارنةً بتحديثها). إن كانت هاريت تُفضِّل شيئًا عن شيء آخر، لكن قد تختار المرور بتجربة تعرف أنها سينتج عنها تفضيل الشيء الثاني على الأول، فلماذا يجب من الأساس أن تفعل ذلك؟ سيكون الناتج هو أنها ستختار حينها الشيء الثاني، الذي لا تُريده حاليًّا.

إنَّ مسألة تغيير التفضيلات تظهر على نحوٍ دراميٍّ في أسطورة أوليس وحوريات البحر. إن حوريات البحر مخلوقات خيالية غناؤها يُغوي البحَّارة ويجعل مصيرهم الموت على صخور جزر معينة في البحر المتوسِّط. أمر أوليس، الذي كان يرغب في الاستماع إلى غناء الحوريات، بحارته بسدِّ آذانه بالشمع وربطه بصارية السفينة، وطلب منهم عدم إطاعة توسُّلاته اللاحقة بفكِّه تحت أيِّ ظرف. من الواضح أنه كان يُريد من البحارة احترام التفضيلات التي كانت لديه في البداية، وليس تلك التي ستكون لديه بعد إغواء الحُوريات له. تلك الأسطورة أصبحت عنوان كتاب للفيلسوف النرويجي جون إلستر،50 الذي يتناول ضعف الإرادة والتحديات الأخرى للفكرة النظرية الخاصَّة بالعقلانية.

لماذا قد تسعى أيُّ آلة ذكية عن قصدٍ لتعديل تفضيلات البشر؟ الإجابة بسيطة جدًّا، وهي: لجعل التفضيلات أسهل في تحقيقها. لقد رأينا هذا في الفصل الأول في حالة تحسين معدَّل النقر في وسائل التواصُل الاجتماعي. أحد الردود قد تتمثَّل في القول بأنَّ الآلات يجبُ أن تتعامل مع التفضيلات البشرية باعتبارها شيئًا مُقدَّسًا؛ لا يُمكن أن يسمح لأيِّ شيءٍ بتغيير التفضيلات البشرية. لسوء الحظ، هذا مُستحيل تمامًا. إن وجود روبوت مُساعد مُفيد من المُحتمَل أن يكون له تأثير على التفضيلات البشرية.

يتمثَّل أحد الحُلول المُمكنة في تعلُّم الآلات «للتفضيلات التعريفية» البشرية؛ أي التفضيلات الخاصة بأنواع عمليات تغيير التفضيلات التي قد تكون مقبولةً أو غير مقبولة. لاحظ هنا استخدام «عمليات تغيير التفضيلات» بدلًا من «تغييرات التفضيلات». يرجع هذا إلى أنَّ الرغبة في تغيير الفرد لتفضيلاته في اتِّجاهٍ مُعيَّن عادةً ما يكون مُساويًا لامتلاك هذا التفضيل بالفعل؛ الشيء المطلوب بالفعل في تلك الحالة هو القُدرة على «تنفيذ» التفضيل على نحوٍ أفضل. على سبيل المثال، إن قالت هاريت: «أُريد لتفضيلاتي أن تتغيَّر بحيث لا أفضل الكعك كما أفعل الآن»، فلديها بالفعل تفضيل لمُستقبل تستهلك فيه كعكًا أقل؛ ما تُريده حقًّا هو تغيير بِنيتها المعرفية بحيث يعكس سلوكها على نحوٍ أكبر هذا التفضيل.

أقصد ﺑ «التفضيلات الخاصة بأنواع عمليات تغيير التفضيلات التي قد تكون مقبولةً أو غير مقبولة»، على سبيل المثال، وجهة النظر التي قد تؤدِّي بالمرء للوصول إلى تفضيلات «أفضل» من خلال السفر حول العالم والتعرُّف على مجموعة متنوعة من الثقافات أو المشاركة في أنشطة جماعة فكرية نابضة بالحياة تستكشف على نحوٍ تامٍّ نطاقًا كبيرًا من التقاليد الأخلاقية أو تخصيص بعض الوقت للتأمُّل والتفكير العميق في الحياة ومعناها. سأُطلق على تلك العمليات «التفضيلات الحيادية»، بمعنى أن المرء لا يتوقَّع أن العملية ستُغيِّر تفضيلاته في أيِّ اتجاهٍ معين، مع إدراك أن بعضها قد يتعارض بشدَّة مع هذا التوصيف.

بالطبع، ليس كل عمليات التفضيلات الحيادية مرغُوبة؛ على سبيل المثال، يتوقَّع القليل من الناس تطوير تفضيلات «أفضل» من خلال ضرب أنفسهم على رءوسهم. إن تعريض الذات لعملية تغيير تفضيلات مقبولة يُناظر تنفيذ تجربة لمعرفة القليل عن كيف يعمل العالم؛ أنت لن تعرف أبدًا مُقدمًا النتيجة التي ستئول إليها التجربة، ولكنَّك تتوقَّع، مع ذلك، أن تكون في وضع أفضل في حالتك الذهنية الجديدة.

يبدو أن فكرة أن هناك سُبلًا مقبولة لتعديل التفضيلات ترتبط بفكرة أن هناك طرقًا مقبولة لتعديل السُّلوك والتي بمُقتضاها، على سبيل المثال، رب العمل سيضبط موقف الاختيار بحيث يتَّخذ الناس اختيارات «أفضل» فيما يتعلَّق بالادِّخار من أجل التقاعُد. عادة ما يُمكن القيام بهذا بالتعامل مع العوامل «غير العقلانية» التي تؤثر على الاختيار، بدلًا من تقييد الاختيارات أو العقاب على الاختيارات «السيئة». عرض كتاب «الوكزة» الذي وضعه الاقتصاديُّ ريتشارد ثالر والباحث القانوني كاس صانشتاين، لنطاق عريض من الطُّرُق والفُرص التي من المفترض أنها مقبولة والتي يُمكنها «التأثير على سلوك الناس حتى تجعل حياتهم أطول وأكثر صحة وأفضل».

من غير الواضح ما إذا كانت طرق تعديل السلوك تُعدل حقًّا السلوك فقط. إن استمرَّ، بعد اختفاء الوكزة، السُّلوك المعدَّل، وهو الأمر الذي من المُفترض أن يُعدَّ الناتج المرغوب فيه لمثل هذه التدخُّلات — فقد تغيَّر شيء في البنية المعرفية للفرد (الشيء الذي يُحوِّل التفضيلات المعنيَّة إلى سلوك) أو في التفضيلات المعنية للفرد. ومن المُحتمل جدًّا أن الشيء المُتغيِّر يكون مزيجًا من الاثنين. لكن الأمر الواضح هو أن استراتيجية الوكزة تفترض أنَّ الجميع يشاركون تفضيلًا خاصًّا بالحياة «الأطول والأكثر صحة والأفضل»؛ كل وكزة قائمة على تعريف محدَّد للحياة «الأفضل»، والذي يبدو أنه يتعارض مع السِّمة الأساسية لاستقلالية التفضيلات. قد يكون من الأفضل، بدلًا من ذلك، تصميم عمليات تفضيلات حيادية مُعاونة تُساعد الناس على جعل قراراتهم وبنياتهم المعرفية مُتناسقة على نحو أفضل مع تفضيلاتهم المعنية. على سبيل المثال، من المُمكن تصميم عمليات معاونة معرفية تركز على التَّبعات ذات المدى الأطول للقرارات وتعلم الناس كيفية إدراك جذور تلك التبعات في الحاضر.51

إنَّ الحاجة إلى الوصول إلى فهمٍ أفضل للعمليات التي بمُقتضاها تتكوَّن وتتشكَّل التفضيلات البشرية تبدو واضحة لعدةَّ أسباب؛ أهمها أن مثل هذا الفهم سيُساعد في تصميم آلاتٍ تتجنَّب التغييرات العرضية وغير المرغوب فيها في التفضيلات البشرية من النوع الذي تقوم به خوارزميات انتقاء المُحتوى على مواقع التواصل الاجتماعي. عندما نُصبح مزوَّدين بمثل هذا الفهم، فإننا بالتأكيد سنسعى إلى إحداث تغييرات ستُؤدِّي إلى عالمٍ «أفضل».

قد يُحاجج البعض بأننا يجب أن نُوفِّر فُرصًا أكبر بكثير لتجارب «تحسين» التفضيلات الحيادية؛ مثل السفر والجدال والتدريب في مجال التفكير النَّقدي والتحليلي. قد نُوفِّر، على سبيل المثال، فرصًا لكلِّ طالب ثانوي للعيش لبضعة أشهُر في ثقافتين أُخريين — على الأقل — مُختلفتَين عن ثقافته.

لكنَّنا على نحوٍ شبه مؤكَّد سنرغب في المُضيِّ قُدُمًا أبعد من ذلك؛ على سبيل المثال، بإجراء إصلاحات اجتماعية وتعليمية تزيد من معامل الغيرية — أي الوزن الذي يُعطيه كل فرد لمصلحة الآخرين — مع تقليل معاملات السادية والفخر والحسد. هل سيكون هذا هدفًا جيدًا؟ هل سنستعينُ بآلاتنا لمساعدتنا في تنفيذ هذه العملية؟ إن الأمر مُغرٍ بالتأكيد. في واقع الأمر، كتب أرسطو نفسُه يقول: «المسعى الأساسي للسياسة هو تكوين المواطنين لشخصية معيَّنة وجعلهم صالحين وميَّالين للقيام بأفعالٍ نبيلة». دعنا نقُل فقط إن تلك هي المخاطر المرتبطة بهندسة التفضيلات المقصودة على نطاقٍ واسع. يجبُ أن نسير متَّخذين الحيطة القُصوى.

جميع الحقوق محفوظة لمؤسسة هنداوي © ٢٠٢٢