الفصل السابع

الذكاء الاصطناعي: توجُّه مُختلف

بعد تفنيد كل حُجج المتشكِّكين في وجود مخاطر للذكاء الاصطناعي والرد على كل الاستدراكات التي تبدأ بكلمة «لكن»، يكون السؤال التالي في الغالب هو: «حسنًا، أُقِرُّ بوجود مشكلة، لكن لا يُوجَد حلٌّ، أليس كذلك؟» بلى، يُوجَد حل.

دعْنا نُذكِّر أنفسنا بالمهمة التي بين أيدينا: تصميم آلاتٍ ذات درجة عالية من الذكاء بحيث يمكن أن تُساعدنا في حل المشكلات الصعبة، مع ضمان عدم تصرُّفها على الإطلاق على نحوٍ يجعلنا تُعساء على نحوٍ خطير.

إن المهمة، لحُسن الحظ، ليست هي التالية: إيجاد طُرقٍ لكيفية التحكم في آلة تمتلك درجةً عالية من الذكاء. إن كانت هذه هي المهمة، لكُنا في مشكلة كبيرة. إن الآلة المنظور إليها باعتبارها صندوقًا أسود، أو أمرًا واقعًا، لهي أشبَهُ بآلةٍ آتية من الفضاء الخارجي. وفُرص تحكُّمنا في أي كيان خارق الذكاء من الفضاء الخارجي تقريبًا صفر. وتنطبق حُجج مُماثلة على طرق إنشاء نظم ذكاء اصطناعي تضمن عدم فَهمنا لكيفية عملها؛ تتضمَّن تلك الطرق «المُحاكاة الكاملة للدماغ» —1 إنشاء نسخ إلكترونية مُحسَّنة من الأدمغة البشرية — إلى جانب الطرق المعتمِدة على التطور المحاكي للبرامج.2 لن أتحدَّث أكثر عن تلك الأمور لأنَّها أفكار سيئة على نحوٍ واضح.

إذن، كيف تعامل مجال الذكاء الاصطناعي مع جزء «تصميم آلات ذات درجة عالية من الذكاء» في المهمَّة في الماضي؟ إن الذكاء الاصطناعي، شأنه شأن العديد من المجالات الأخرى، تَبنِّي النموذج القياسي؛ فنحن نبني آلات تتوخَّى أمثل الحلول وندمج بها أهدافًا ونُطلِقها. وهذا نجح عندما كانت الآلات غبيةً ولدَيها نطاق عمل محدود؛ لكن لو كنَّا قد دمجنا فيها هدفًا خاطئًا، لكانت لدينا فرصة جيدة لأن نكون قادرين على إيقاف عملها وإصلاح المشكلة وإعادة التشغيل.

لكن بما أنَّ الآلات المُصمَّمة تبعًا للنموذج القياسي قد أصبحت أكثر ذكاءً، ونظرًا لأن نطاق عملها قد أصبح عالميًّا، فإن هذا التوجُّه قد أصبح غير مُجدٍ. إن تلك الآلات ستسعى إلى تحقيق هدفها، بصرف النظر عن مدى خطئه؛ إنها ستُقاوم محاولات إيقاف تشغيلها، وستكتسب كل الموارد التي تُساهم في تحقيق الهدف. في واقع الأمر، السلوك الأمثل للآلة قد يتضمَّن خداع البشر بجعلهم يعتقدُون أنهم دمجوا بالآلة هدفًا معقولًا، حتى تكسب وقتًا كافيًا لتحقيق الهدف الفعلي المُحدَّد لها. هذا لن يكون سلوكًا «منحرفًا» أو «شريرًا» يتطلَّب وعيًا وإرادةً حرة؛ إنه فقط سيكون جزءًا من خطةٍ مُثلى لتحقيق الهدف.

في الفصل الأول، عرضنا لفكرة الآلات النافعة — أي الآلات التي فعالها يُتوقَّع منها أن تُحقِّق «أهدافنا» وليس «أهدافها». إن هدفي في هذا الفصل هو أن أُوضِّح بأسلوبٍ بسيط كيف يمكن تحقيق ذلك، رغم المشكلة الظاهرة المُتمثِّلة في أن الآلات لا تعرف ماهية أهدافنا. إن التوجُّه الناتج يجب أن يؤدي في النهاية إلى إنتاج آلات لا تُمثِّل أي تهديدٍ لنا، بصرف النظر عن مدى ذكائها.

(١) مبادئ الآلات النافعة

أجد من المُفيد تلخيص التوجُّه في شكل ثلاثة3 مبادئ. عند قراءة تلك المبادئ، ضع في اعتبارك أن الهدف منها بالأساس إرشاد المُطوِّرين والباحثين في مجال الذكاء الاصطناعي عند التفكير في كيفية إنشاء نُظم ذكاءٍ اصطناعيٍّ نافعة؛ فليس الغرض منها أن تكون قوانين صريحة يجب أن تتبعها نظم الذكاء الاصطناعي:4
  • (١)

    الهدف الوحيد للآلة هو التحقيق الأمثل للتفضيلات البشرية.

  • (٢)

    يجب أن تكون الآلة بالأساس غير مُتيقِّنة من ماهية تلك التفضيلات.

  • (٣)

    مصدر المعلومات الأساسي للتفضيلات البشرية هو السلوك البشري.

قبل الانخراط في تقديم عرض تفصيلي أكثر، من المهم تذكُّر النطاق الواسع لما أطلق عليه «التفضيلات» في تلك المبادئ. ها هي تذكرة بما ذكرته في الفصل الثاني: «إذا قُدِّر لك بطريقةٍ ما واستطعت أن تُشاهد فيلمَين يصف كلُّ واحدٍ منهما مسيرة حياة مُستقبليَّةٍ بإمكانك أن تعيشها لو أردت وصفًا دقيقًا مُتأنِّيًا يجعلك تعيش أجواءها كأنَّها حقيقة، تستطيع أن تختار أيُّهما تُفضِّل أو تُعبِّر عن أن كليهما إليك سواء». لذا، التفضيلات هنا شاملة؛ فهي تُغطِّي كل شيء قد تهتم به، بما في ذلك ما سيظهر في المستقبل البعيد.5 وهي تلك الخاصة بك؛ فالآلة لا تسعى إلى الوصول إلى مجموعة تفضيلات مثالية معيَّنة أو تبنِّيها ولكن إلى فهم تفضيلات كل شخصٍ وتحقيقها (إلى أقصى حدٍّ مُمكن).

(١-١) المبدأ الأول: الآلات الغيرية تمامًا

الهدف الأول، الذي ينصُّ على أن الهدف الوحيد للآلة هو التحقيق الأمثل للتفضيلات البشرية، أساسي لمفهوم الآلة النافعة. على وجه الخصوص، ستكون الآلة نافعة «للبشر»، بدلًا من، لنقُل، للصراصير. ليس هناك سبيل للالتفاف على هذا المفهوم للمنفعة المُرتكز على المُتلقِّي.

هذا المبدأ يعني أن الآلة غيرية تمامًا؛ أي إنها لا تُعطي على الإطلاق أي قيمةٍ حقيقية لمصلحتها أو حتى لوجودها. إنها قد تحمي نفسها حتى تستمر في القيام بأشياء مُفيدة للبشر أو لأن مالكها سيستاء لدفع قيمة عمليات الإصلاح الخاصة بها أو لأن منظر الروبوت القذر أو الذي به عطب قد يكون مزعجًا بعض الشيء لأيِّ شخصٍ مارٍّ، لكن ليس لأنه يُريد البقاء على قيد الحياة. إن دمج أي تفضيلٍ خاصٍّ بالحفاظ على الذات يُدخل دافعًا إضافيًّا إلى الروبوت، والذي يتعارض كليةً مع مصلحة البشر.

إن صياغة المبدأ الأول تُثير سؤالَين غاية في الأهمية. وكلٌّ منهما يستحق رفَّ كتبٍ بالكامل، وفي واقع الأمر، ألِّف بالفعل العديد من الكتب عنهما.

السؤال الأول هو ما إذا كان البشر حقًّا لديهم تفضيلات بأيِّ معنًى مفهوم أو ثابت. في الحقيقة، إن مفهوم «التفضيل» تصوُّر مثالي فشل في مطابقة الواقع بطرقٍ مُتعدِّدة. على سبيل المثال، نحن لا نُولَد بالتفضيلات التي تكون لدينا ونحن بالِغون، لذا، لا بد أنها تتغيَّر بمرور الوقت. سأفترض هنا أن هذا التصور المثالي عقلاني. ولاحقًا، سأستعرض ماذا سيحدث عندما نتخلى عن هذا التصور.

السؤال الثاني يعدُّ محور العلوم الاجتماعية: بما أنه في الغالب من المستحيل ضمان حصول الجميع على أفضل ما يُريدونه — إذ لا يمكن أن نكون جميعًا أسياد الكون — فكيف يجب أن تفاضل الآلة عند تحقيق تفضيلات العديد من الأشخاص؟ مرةً أخرى، أرى هنا — وأعدكم بالعودة إلى هذا السؤال في الفصل القادم — أنه يبدو من المعقول تبنِّي التوجُّه البسيط المُتمثل في معاملة الجميع على نحوٍ مُتساوٍ. هذا يُذكِّرنا بجذور مذهب النفعية الذي ظهر في القرن الثامن عشر التي تبدو في عبارة «أكبر قدر من السعادة لأكبر عددٍ من البشر»،6 وهناك العديد من الشروط والتفاصيل المطلوبة لإنجاح ذلك في الممارسة الفعلية. ربما أهمها مسألة العدد الهائل المُحتمل للبشر الذين لم يُولَدوا بعد، وكيف يجب أخذ تفضيلاتهم في الاعتبار.
تُثير مسألة البشر المُستقبليِّين سؤالًا آخر ذا صلة؛ وهو: كيف نأخذ في الاعتبار تفضيلات الكيانات غير البشرية؟ أي هل يجب أن يتضمَّن المبدأ الأول تفضيلات الحيوانات؟ (وربما النباتات أيضًا؟) هذا سؤال يستحق النقاش، لكن يبدو من غير المُحتمل أن يكون لناتج النقاش تأثير قوي على المسار المُنتظر للذكاء الاصطناعي. ففي كل الأحوال، يُمكن أن يُوجَد — وهذا واقع بالفعل — بالتفضيلات البشرية مكان لمصلحة الحيوانات، وكذلك لجوانب المصلحة البشرية التي تستفيد مباشرة من وجود الحيوانات.7 إن القول بأن الآلة يجب أن تراعي تفضيلات الحيوانات «إلى جانب» هذا يعني أن البشر يجب أن يُنشئوا آلاتٍ تهتم بالحيوانات أكثر مما يفعل البشر، وهو أمر يصعب قبوله. إن الأمر المقبول أكثر هو أن ميلنا إلى الانخراط في عمليات اتخاذ قرار قصيرة النظر — والتي تعمل ضد مصلحتنا — عادةً ما يُؤدِّي إلى عواقب وخيمة على البيئة وسكانها من الحيوانات. إن الآلة التي ستتَّخذ قراراتٍ قصيرة النظر على نحوٍ أقل ستساعد البشر على تبنِّي سياساتٍ أكثر حكمة من الناحية البيئية. وفي المستقبل، إن أعطينا وزنًا أكبر لمصلحة الحيوانات مقارنة بما نفعله الآن — والذي سيعني على الأرجح التضحية ببعض مصالحنا الأساسية — فستتكيف الآلات وفقًا لذلك.

(١-٢) المبدأ الثاني: الآلات الخاضعة

إن المبدأ الثاني، المتمثِّل في أن الآلة بالأساس يجب أن تكون غير مُتيقنة من ماهية التفضيلات البشرية، هو العامل الأساسي لإنشاء آلات نافعة.

إن الآلة التي تفترض أنها تعلم على نحوٍ تام الهدف الحقيقي ستسعى إلى تحقيقه بكل عزم. إنها لن تسأل أبدًا ما إذا كان مسارُ فعلٍ مُعيَّن جيدًا أم لا، لأنها تعرف بالفعل أنه حلٌّ أمثل للوصول إلى الهدف. إنها ستتجاهل البشر الذين سيشعرون بغضبٍ شديد ويصرُخون قائلين: «توقفي، إنك ستُدمِّرين العالم!» لأن تلك مجرد كلمات. إن افتراض امتلاك معرفة كاملة بالهدف يفصل الآلة عن البشر: فما يفعلُه البشر لا يُصبح مهمًّا؛ لأن الآلة تعرف الهدف وتسعى إلى تحقيقه.

على الجانب الآخر، إن الآلة التي هي غير مُتيقنة من الهدف الحقيقي ستُبدي نوعًا من الخضوع: إنها، على سبيل المثال، ستُذعن للبشر وتسمح بأن يُوقف تشغيلها. من المنطقي أن الإنسان سيوقفها فقط إذا كانت تفعل شيئًا خاطئًا؛ أي تفعل شيئًا يتعارض مع التفضيلات البشرية. من خلال المبدأ الأول، إنها تُريد أن تتجنَّب ذلك، لكن، من خلال المبدأ الثاني، إنها تعرف أن هذا ممكن لأنها لا تعرف على وجه التحديد ماهية الشيء «الخاطئ» الذي تقوم به. لذا، إذا أغلق بالفعل الإنسان الآلة، فإنَّ الآلة ستتجنَّب فعل الشيء الخاطئ، وهذا هو ما تُريده. بعبارةٍ أخرى، سيكون لدى الآلة دافع إيجابي لكي تسمح لنفسها بأن يوقف تشغيلها. وهكذا، ستظل مُرتبطة بالإنسان، الذي يعدُّ مصدرًا مُحتملًا للمعلومات، والذي سيسمح لها بتجنُّب ارتكاب الأخطاء والقيام بعملٍ أفضل.

إن عدم اليقين كان اعتبارًا مهمًّا في مجال الذكاء الاصطناعي منذ ثمانينيات القرن الماضي؛ في واقع الأمر، مُصطلح «الذكاء الاصطناعي الحديث» غالبًا ما يُشير إلى الثورة التي حدثت عندما جرى أخيرًا الاعتراف بأن عدم اليقين أمر شائع في عمليات اتخاذ القرار التي تجري في العالم الواقعي. غير أن عدم اليقين بشأن «الهدف» من نظام الذكاء الاصطناعي جرى ببساطة تجاهُلُه. ففي كل الأعمال التي كتبت عن تعظيم المنفعة وتحقيق الأهداف وتقليل التَّكلفة وتعظيم المكافأة وتقليل الخسارة، يفترض أن دالة المنفعة والهدف ودالة التَّكلفة ودالة المكافأة ودالة الخسارة معروفة على نحوٍ كامل. كيف يُمكن أن يحدث هذا؟ كيف يمكن لمجتمع الذكاء الاصطناعي (ومجتمعات نظرية التحكُّم وعلم أبحاث العمليات وعلم الإحصاء) ألا يصلح هذا الخطأ الكبير لهذا الوقت الطويل، حتى في ظلِّ الاعتراف بوجود عدم يقين في كل جوانب عملية اتخاذ القرار الأخرى؟8
يُمكن للمرء أن يُقدم بعض الأعذار الفنية المعقَّدة بعض الشيء،9 لكني أعتقد أن الحقيقة هي، مع بعض الاستثناءات الجديرة بالاحترام،10 أن باحثي الذكاء الاصطناعي تبنَّوا النموذج القياسي الذي يحول مفهومنا عن الذكاء البشري إلى ذكاء الآلة: إن البشر لديهم أهداف ويسعون إلى تحقيقها، لذا، يجب أن يكون لدى الآلات أهداف وتسعى إلى تحقيقها. إنهم، أو يجب أن أقول إننا، لم يتدبَّروا حقًّا قطُّ هذا الافتراض الأساسي. إنه مُتضمن في كل التوجهات الحالية الخاصة بإنشاء نظم ذكية.

(١-٣) المبدأ الثالث: تعلَّم كيفية توقُّع التفضيلات البشرية

إن المبدأ الثالث، الذي ينصُّ على أن مصدر المعلومات الأساسي للتفضيلات البشرية هو السلوك البشري، له غرضان.

الغرض الأول هو توفير أساسٍ مُحدَّد لمُصطلح «التفضيلات البشرية». افتراضيًّا، التفضيلات البشرية ليست مبنية في الآلة ولا تستطيع الآلة ملاحظتها على نحوٍ مباشر، لكن لا بد أن تكون هناك عملية ربط مُعينة بين تفضيلات البشر والآلة. يقول المبدأ إن عملية الربط تكون عن طريق ملاحظة «الاختيارات» البشرية: نحن نفترض أن الاختيارات مُرتبطة بطريقةٍ ما (ربما تكون معقَّدة للغاية) بالتفضيلات ذات الصلة. ولإدراك سبب أهمية هذا الربط، تأمَّل الوضع العكسي: إن كان أحد التفضيلات البشرية «ليس له أي تأثير على الإطلاق» على أيِّ اختيار فعلي أو مُفترض قد يقوم به الإنسان، فحينها سيكون على الأرجح لا معنى للقول بأن هذا التفضيل موجود.

الغرض الثاني هو تمكين الآلة من أن تُصبح أكثر نفعًا؛ لأنها ستعلم أكثر عما نُريد. (ففي النهاية، إنها إن لم تكن تعلم «أي شيء» عن التفضيلات البشرية، فلن يكون لها أيُّ نفع لنا.» إن الفكرة بسيطة بالقدر الكافي: تُعطي الاختيارات البشرية معلوماتٍ عن التفضيلات البشرية. عند تطبيق ذلك على الاختيار بين بيتزا الأناناس وبيتزا السجق، يكون الأمر واضحًا. ولكن الأمور تصبح أكثر إثارة للاهتمام عند تطبيق ذلك على الاختيارات المتعلقة بالحيوات المستقبلية وتلك المتخذة بهدف التأثير على سلوك الآلي. في الفصل القادم، سأشرح كيفية صياغة تلك المشكلات وحلها. لكن تنشأ التعقيدات الحقيقية لأن البشر ليسوا عقلانيِّين تمامًا: يُوجَد تعارُض بين التفضيلات والاختيارات البشرية، ويجب أن تأخذ الآلة تلك التعارُضات في الاعتبار إن كان لها أن تنظر للاختيارات البشرية باعتبارها مُؤشِّرًا على التفضيلات البشرية.

(١-٤) بعض نقاط سوء الفهم

قبل عرض المزيد من التفاصيل، أريد أن أوضِّح بعض النقاط التي قد تُفهم خطأً من كلامي.

النقطة الأولى والأكثر شيوعًا هي أنني أقترح أن أُدمج في الآلات نظامَ قيمٍ واحدًا ومثاليًّا من ابتكاري يُرشِّد سُلوكها. هذا يُثير بدوره الأسئلة التالية: قيمُ مَن تلك التي ستُدمجها؟ من الذي سيُقرِّر القيم التي ستُدمَج؟ أو حتى، من أعطى العلماء الغربيِّين المُرفَّهين البيض الذكور المُتوافقي الجنس مثل راسل الحق لتحديد كيف تُشفِّر الآلة القيم البشرية وتطورها؟11

أعتقد أن هذا الخلط يرجع جزئيًّا إلى الاختلاف بين معنى «القيمة» الشائع ومعناه المتخصِّص أكثر المُستخدَم في علم الاقتصاد والذكاء الاصطناعي وعلم أبحاث العمليات. في الاستخدام العادي، القِيَم هي ما يستخدمه المرء للمساعدة في حل المعضلات الأخلاقية؛ أما كمُصطلح فنِّي مُتخصِّص، على الجانب الآخر، فإن «القيمة» مرادفة تقريبًا للمنفعة، والتي تقيس درجة جاذبية أي شيءٍ بدءًا من البيتزا وحتى الجنة. إن المعنى الذي أقصده هو المعنى المُتخصِّص؛ فأنا أريد فقط التأكد من أن الآلات ستقدم لي البيتزا الصحيحة ولن تُدمِّر عرَضًا الجنس البشري. (إن إيجاد مفاتيحي سيكون أمرًا إضافيًّا غير مُتوقَّع.) ولتجنُّب هذا الخلط، تتحدَّث المبادئ عن «التفضيلات» البشرية وليس «القيم» البشرية؛ حيث إن المُصطلح الأول يبدو أنه بعيد عن التصوُّرات المُسبقة الحُكمية الخاصَّة الأخلاقية.

إن «دمج قيم» في الآلة، بالطبع، لهو على وجه التَّحديد الخطأ الذي أُحاجج بأننا يجب أن نتجنَّبه؛ لأن تحديد القِيَم (أو التفضيلات) على نحوٍ صحيح تمامًا صعب جدًّا وتحديدها على نحوٍ خاطئ ربما يكون أمرًا كارثيًّا. إنني أرى بدلًا من ذلك أن تتعلم الآلات أن تتوقَّع على نحوٍ أفضل، فيما يتعلَّق بكل شخص، شكل الحياة التي سيُفضِّلها، وهي تدرك طوال الوقت بأن التوقعات ليست مؤكَّدة أو كاملة على نحوٍ كبير. مبدئيًّا، يُمكن للآلة تعلُّم مليارات نماذج التفضيلات التنبؤية المختلفة؛ بحيث تتوقَّع واحدًا لكلِّ شخصٍ من مليارات الأشخاص الموجودين على كوكب الأرض. هذا في واقع الأمر لن يكون أمرًا صعبًا بالنسبة إلى نُظم الذكاء الاصطناعي المستقبلية، عند الوضع في الاعتبار أن نظم «فيسبوك» الحالية تتعامل بالفعل مع أكثر من مليارَي حسابٍ شخصي.

هناك نقطة ذات صلة في هذا الإطار؛ وهي أن الهدف هو تزويد الآلات ﺑ «الجانب الأخلاقي» أو «القيم الأخلاقية» التي ستُتيح لها حلَّ المعضلات الأخلاقية. في الغالب، يذكر الناس ما يُسمُّونه بمُشكلات الترولي،12 حيث يكون على المرء تحديد ما إذا كان عليه قتلُ أحد الأشخاص حتى يُنقذ الباقين، بسبب صلتها المزعومة بالسيارات الذاتية القيادة. لكن النقطة الأساسية في المُعضلات الأخلاقية هي أنها معضلات؛ أي إن هناك حججًا جيدة لدى الجانبَين. إن بقاء الجنس البشري ليس مُعضلةً أخلاقية. تستطيع الآلات حل معظم المعضلات الأخلاقية «بطريقة خاطئة» (أيًّا كانت) ودون أن يكون لذلك أيُّ تأثير كارثي على البشرية.13

هناك افتراض شائع؛ وهو أن الآلات التي تتبع المبادئ الثلاثة سترتكب كلَّ الخطايا التي لاحظتها وتعلَّمتْها من الأشرار من البشر. بالطبع، الكثير منَّا يتَّخذ اختياراتٍ غير ملائمة، لكن لا يُوجَد أي سبب لافتراض أنَّ الآلات التي تدرُس دوافعنا ستتَّخذ نفس الاختيارات، كما هو الحال مع علماء الجريمة والمجرمين. دعنا نأخذ كمثالٍ الموظَّف الحكوميَّ الفاسد الذي يطلب رِشًى لإعطاء تصاريح بناء لأنَّ راتبه الضعيف لن يكفي لإدخال أبنائه الجامعة. إن الآلة التي تلاحظ هذا السلوك لن تتعلَّم أخذ الرشى؛ بل ستتعلَّم أن الموظف، شأنه شأن العديد من الأشخاص الآخرين، لدَيه رغبة قوية للغاية في تعليم أبنائه وجعلهم ناجحين. وستجدُ طُرقًا لمساعدته لا تتضمَّن الإضرار بمصلحة الآخرين. هذا لا يعني أن «كل» حالات السلوك الشرِّير لا تسبب مشكلاتٍ للآلات؛ على سبيل المثال، قد تحتاج الآلات للتعامُل على نحوٍ مُختلف مع هؤلاء الذين يستمتعُون بمُعاناة الآخرين.

(٢) الأسباب التي تدعو إلى التفاؤل

باختصارٍ، أنا أقترح أننا بحاجةٍ إلى توجيه مجال الذكاء الاصطناعي في اتجاهٍ جديد تمامًا إذا أردنا أن نحافظ على سيطرتنا على الآلات الذكية على نحوٍ مُتزايد. إننا نحتاج إلى التخلِّي عن واحدة من الفِكَر الأساسية الخاصة بالتكنولوجيا في القرن العشرين؛ وهي: الآلات التي تسعى إلى التحقيق الأمثل لهدفٍ مُعين. كثيرًا ما أسأل عن السبب وراء اعتقادي أن هذا مُمكن رغم صعوبته، في ضوء الزخم الكبير وراء النموذج القياسي في مجال الذكاء الاصطناعي والمجالات ذات الصلة. في واقع الأمر، أنا مُتفائل جدًّا بشأن إمكانية تحقيق ذلك.

السبب الأول للتفاؤل هو وجود دوافع اقتصادية كبيرة لتطوير نُظم ذكاء اصطناعي تخضع للبشر وتُكيِّف نفسها تدريجيًّا مع نوايا المُستخدِمين وتفضيلاتهم. تلك النُّظم ستكون مطلوبةً على نحوٍ كبير؛ إن نطاق السلوكيات الذي يُمكن أن تبديه يُعدُّ ببساطةٍ أكبر بكثير من ذلك الخاص بالآلات ذات الأهداف المعلومة الثابتة. إنها ستسأل البشر أسئلة أو تطلب الإذن عندما يكون ذلك ملائمًا، كما ستُنفِّذ «عمليات تشغيل تجريبي» لترى إن كنا راضِين عما تقترح القيام به، وتتقبل التصحيح عندما تُخطئ. على الجانب الآخر، النظم التي لن تفعل ذلك ستتعرَّض إلى عواقب وخيمة. حتى الآن، حمانا غباء نُظُم الذكاء الاصطناعي ونطاقها المحدود من تلك العواقب، لكن هذا سيتغيَّر. تخيَّل معي، على سبيل المثال، حال روبوت منزليٍّ مُستقبلي ما مُكلَّف برعاية أبنائك بينما تعمل أنت إلى وقتٍ متأخِّر. إن الأبناء جوعى، لكن الثلاجة خاوية. ثم سيلاحظ الروبوت القطة. للأسف، سيفهم الروبوت القيمة الغذائية للقطة ولكن ليس قيمتها العاطفية. وفي غضون بضع ساعات، ستنتشر في وسائل الإعلام العالمية عناوين رئيسية عن الروبوتات المختلة والقطط المشوية، وستختفي صناعة الروبوتات المنزلية بالكامل من السوق.

إن احتمال أن يستطيع أحد اللاعبين في إحدى الصناعات تدمير الصناعة بأكملها بسبب التهاون في التصميم يوفر دافعًا اقتصاديًّا قويًّا لتكوين ائتلافاتٍ صناعية تركز على مسألة الأمن ولفرض معايير خاصَّة بالأمن. بالفعل، اتفق أعضاء مجموعة «الشراكة في الذكاء الاصطناعي»، الذين يُمثِّلون تقريبًا كل الشركات التقنية الرائدة في العالم، على التعاون لضمان «فاعلية واعتمادية وموثوقية تقنيات الذكاء الاصطناعي وأبحاثها وعملها وفق حدودٍ آمنة». حسب معلوماتي، كل اللاعبين الكبار ينشرون أبحاثهم المتعلقة بمسألة الأمن في أدبياتٍ متاح الوصول إليها من الجميع. لذا، فإن الدافع الاقتصادي موجود قبل فترة طويلة من وصولنا إلى الذكاء الاصطناعي الذي يضاهي الذكاء البشري وسيقوى فقط بمرور الوقت. علاوة على ذلك، نفس الديناميكية التعاونية ربما تكون قد بدأت على المستوى الدولي؛ على سبيل المثال، إن السياسة المُعلنة للحكومة الصينية هي «التعاون من أجل المنع الاستباقي لمخاطر الذكاء الاصطناعي».14

السبب الثاني للتفاؤل هو أن البيانات الأساسية للتعلُّم فيما يتعلَّق بالتفضيلات البشرية — أي أمثلة السلوك البشري — وفيرة جدًّا. وتأتي البيانات ليس فقط في شكل ملاحظاتٍ مباشرة عبر الكاميرا ولوحة المفاتيح وشاشة اللمس من قبل مليارات الآلات التي تُشارك مع بعضها بيانات خاصة بمليارات البشر (على نحوٍ خاضع لقيود الخصوصية، بالطبع) وإنما أيضًا في شكلٍ غير مباشر. إن أوضح نوع من الأدلة غير المباشرة هو السجل البشري الهائل من الكتب والأفلام والبرامج التلفزيونية والإذاعية، والذي يُركِّز على نحوٍ شبه كامل على «أشخاص يقومون بأشياء» (وأشخاص آخرون مُنزعجُون بشأن هذا). حتى السجلات المصرية والسومرية القديمة والمُملة والتي توضح مقايضة سبائك النحاس بأجولة الشعير تُبصرنا بعض الشيء بالتفضيلات البشرية فيما يتعلق بالسلع المختلفة.

هناك، بالطبع، صعوبات فيما يتعلَّق بفهم تلك البيانات، والتي تتضمن مواد الدعاية والأدب وخيالات المجانين وحتى بيانات السياسيين والرؤساء، ولكن لا يُوجد بالتأكيد سبب لأخذ الآلة كل هذا على ظاهره. يمكن للآلات فهم كل رسائل التواصل الآتية من غيرها من الكيانات الذكية، ويجب عليها ذلك، كحركاتٍ في لعبة وليس كحقائق؛ في بعض الألعاب، مثل الألعاب التعاونية التي يشارك بها فرد واحد وآلة واحدة، يكون لدى الإنسان الدافع لأن يتحلَّى بالصدق، لكن في مواقف أخرى عديدة، تكون لدَيه دوافع لأن يكون غير صادقٍ. وبالطبع، سواء كان البشر صادقين أم غير ذلك، فقد يكونون مُتوهِّمين في مُعتقداتهم.

هناك نوع ثانٍ من الأدلة غير المباشرة والواضحة وضوح الشمس؛ ألا وهو: الشكل الذي عليه العالم.15 إننا جعلناه بهذا الشكل تقريبًا لأنه يُعجبنا هكذا. (من الواضح أنه ليس مثاليًّا!) والآن، تخيَّل معي أنك فضائي يزور كوكب الأرض بينما كل البشر خارجه في إجازة. عندما تتفحص منازلهم، هل تستطيع البدء في معرفة أساسيات التفضيلات البشرية؟ البُسُط موضوعة على الأرض لأننا نحبُّ السير على أسطحٍ ناعمة ودافئة، ولا نُحِبُّ أن يكون صوت وقع أقدامنا عاليًا؛ الزهريات موضوعة في وسط الطاولة وليس في حافتها لأننا لا نُريد أن تقع وتنكسر؛ وهكذا؛ إن كل شيء لم تضع له الطبيعة ترتيبًا بنفسها يُعَدُّ دليلًا على ما تُحبه وتبغضه المخلوقات الغريبة التي تسير على قدمَين، التي تسكن هذا الكوكب.

(٣) الأسباب التي تدعو إلى الحذَر

ربما تجد وعود مجموعة «الشراكة في الذكاء الاصطناعي» فيما يتعلق بالتعاون في مسألة أمان الذكاء الاصطناعي غير مُطمئنة على الإطلاق إذا كنتَ تُتابع التطوُّر الحادث في مجال السيارات الذاتية القيادة. إن هذا المجال تنافُسي بشدة، لبعض الأسباب الوجيهة جدًّا: إن أول مُصنِّع سيارات يُنتج سيارةً ذاتية القيادة بالكامل ستكون له ميزة سوقية كبيرة؛ وتلك الميزة ذاتية التعزيز لأن المُصنِّع سيكون قادرًا على جمع بياناتٍ أكثر بسرعةٍ أكبر لتحسين أداء النظام؛ وستخرج الشركات التي تعتمد على نظام النقل حسب الطلَب مثل أوبر بسرعة من السوق إن استطاعت شركة أخرى توفير سيارات أجرة ذاتية القيادة بالكامل قبل أن يكون بإمكان أوبر فعل ذلك. أدَّى هذا إلى سباق مُستعر يبدُو فيه أن الحذر والتصميم الدقيق أقل أهميةً من السيارات التجريبية الجذابة ومحاولات الاستحواذ على الكفاءات البشرية والطرح السابق لأوانه للمنتجات.

لذا، فإن التنافُس الاقتصادي المحموم يدفع المُتنافِسين إلى عدم الاهتمام الشديد بمسألة الأمان على أمل الفوز بالسباق. كتب عالِم البيولوجيا بول بيرج في دراسةٍ تراجُعية ظهرت في عام ٢٠٠٨ عن مؤتمر أسيلومار الذي عُقد في عام ١٩٧٥ والذي شارك في تنظيمه — ذلك المؤتمر الذي أدى إلى تعليق تجارب الهندسة الوراثية البشرية:16

هناك درس مُستفاد من مؤتمر أسيلومار لكل المجالات العلمية؛ وهو أن أفضل طريقةٍ للاستجابة لمخاوف أثارتها معرفة ناشئة أو تقنيات ما زالت في مرحلةٍ مبكرة بالنسبة إلى العلماء من مؤسساتٍ ذات تمويل حكومي هي العمل مع الناس لإيجاد أفضل طريقةٍ للتحكُّم في الأمر؛ وبأسرع ما يُمكن. إذ بمجرد أن يبدأ علماء الشركات في تسيُّد مجال البحث، يكون ببساطة قد فات الأوان.

يحدث التنافُس الاقتصادي ليس فقط بين الشركات وإنما أيضًا بين الأمم. تُشير بالتأكيد حُمى البيانات الحديثة التي تُعلن عن استثمارات قومية بمليارات الدولارات في مجال الذكاء الاصطناعي من قبل الولايات المتحدة والصين وفرنسا وبريطانيا والاتحاد الأوروبي إلى رغبة كل القوى العظمى في عدم التخلُّف عن الركب. في عام ٢٠١٧، قال الرئيس الروسي فلاديمير بوتين: «الدولة التي ستكون الرائدة في هذا المجال [الذكاء الاصطناعي] ستقود العالم».17 هذا التحليل بالأساس صحيح. إن الذكاء الاصطناعي المُتقدم، كما رأينا في الفصل الثالث، يؤدِّي إلى إنتاجية ومعدَّلات ابتكارٍ مُتزايدة على نحوٍ كبير تقريبًا في جميع المجالات. وإن لم تكن هناك شراكة في تطويره، فإنه سوف يسمح لمالكه بالتفوُّق على أيِّ أمةٍ أو تحالف منافس.

نيك بوستروم في كتابه «الذكاء الخارق» يُحذِّر على وجه التحديد من هذا الدافع. ستميل المنافسة القومية، تمامًا مثل المنافسة بين الشركات، إلى التركيز على تطوير الإمكانات الأساسية أكثر من حلِّ مشكلة التحكُّم. لكن بوتين على الأرجح قرأ كتاب بوستروم؛ إذ أضاف: «سيكون الأمر صعبًا للغاية إن تحقق لأحدٍ وضع احتكاري». وسيكون أيضًا هذا عديم الجدوى لأن الذكاء الاصطناعي الذي يضاهي الذكاء البشري ليس «لُعبة مجموعٍ صفري»، ولن تكون هناك أي خسارة بمشاركة المعلومات الخاصة به. على الجانب الآخر، إن التنافس من أجل إحراز قصب السبق في مجال الذكاء الاصطناعي المضاهي للذكاء البشري، دون حل مشكلة التحكم، يُعدُّ «لعبة مجموع سالب». ولن يجني الجميع أي شيء.

هناك فقط القليل من الأمور التي يُمكن أن يفعلها باحثو الذكاء الاصطناعي للتأثير في تطور السياسة العالمية تجاه الذكاء الاصطناعي. يُمكننا لفت الأنظار إلى التطبيقات المُحتملة التي ستكون لها فوائد اقتصادية واجتماعية، كما يُمكننا التحذير من حالات إساءة الاستخدام المُحتملة مثل المراقبة والأسلحة، ونستطيع كذلك توفير خرائط طريق للمسار المُحتمَل للتطوُّرات المستقبلية وتأثيراتها. ربما أهم شيء يُمكننا فعله هو تصميم نظم ذكاءٍ اصطناعي آمنة ونافعة على نحوٍ مُثبت للبشر، لأقصى حدٍّ مُمكن. حينها فقط سيكون من المعقول محاولة فرض تشريعاتٍ عامة على الذكاء الاصطناعي.

جميع الحقوق محفوظة لمؤسسة هنداوي © ٢٠٢٤