الفصل الرابع

إساءة استخدام الذكاء الاصطناعي

يبدو الاستخدام الرحيم والعطوف لتلك الهبة الكونية من جانب البشر أمرًا رائعًا، لكن علينا أن نضع في حسباننا أيضًا معدل الابتكار السريع في مجال الأعمال غير المشروعة. إن الأشخاص ذوي النوايا الخبيثة يسعون لابتكار طرقٍ جديدة لإساءة استخدام الذكاء الاصطناعي بسرعةٍ شديدة لدرجة أنَّ مادة هذا الفصل على الأرجح ستكون قديمة قبل حتى أن يُجرى نشرُه. أتمنَّى أن تنظر إلى قراءة هذا الفصل ليس على أنها دعوة للإحباط ولكن باعتبارها دعوة للعمل قبل أن يفوت الأوان.

(١) المُراقبة والمُطاردة والتَّحكُّم

(١-١) شتازي المؤتمتة

تُعدُّ وزارة أمن الدولة في ألمانيا الشَّرقية، المشهورة أكثر باسم «شتازي»، على نطاق واسع «واحدةً من أكفأ الأجهزة المخابراتية ووكالات الشرطة السِّرية وأكثرها قمعًا على مر التاريخ».1 لقد كانت لديها ملفات للغالبية العُظمى من سكان ألمانيا الشرقية، وكانت تُراقب المكالمات الهاتفية وتقرأ رسائل البريد، وتزرع كاميرات خفيَّة في الشُّقق والفنادق. وكانت تكتشف بكفاءة الأنشطة المعارضة وتقضي عليها بلا هُوادةٍ أو رحمة. وكان نهجها المُفضَّل في العمل هو التدمير النفسي عوضًا عن السجن أو الإعدام. ولكن هذا المستوى من التحكم كانت كُلفته باهظة؛ فقد أشارت بعض التقديرات إلى أنَّ أكثر من رُبع البالِغين في سن العمل كانوا مُخبرين يعملون لصالحهم، وأنَّ سجلاتهم الورقية وصل عددها تقريبًا إلى حوالي ٢٠ مليار ورقة،2 وأصبحت مهمة معالجة كمية المعلومات الضخمة التي ترد إليهم واتِّخاذ ردود أفعالٍ مناسبةٍ لها تتخطَّى طاقة وقدرة أي مؤسسةٍ بشرية.
من البديهي إذن أن تُفكِّر وكالات الاستخبارات في إمكانية استخدام الذكاء الاصطناعي في عملهم. لسنواتٍ عدة، كانوا يطبقون نماذج بسيطة من تقنية الذكاء الاصطناعي، بما في ذلك تقنية التَّعرُّف على الصوت، وتمييز الكلمات والعبارات المفتاحيَّة في الأحاديث والنصوص. وبمرور الوقت، تطوَّرت قدرة نظم الذكاء الاصطناعي على «فهم سياق» ما يقوله الناس أو يفعلونه؛ سواء أكان تواصلًا شفهيًّا أم كتابيًّا، أو بالمُراقبة بالكاميرات. في النظم الحاكمة التي تتبني هذه التقنية لأغراض خاصة بالتحكم، يُمكن تصوُّر الأمر كما لو أنَّ لكلِّ مواطنٍ مخبرًا من مُخبري شتازي يُراقبه على مدار الساعة كل يوم.3
حتى في المجالات المدنية في الدول التي يتمتَّع مواطنوها بالحرية نسبيًّا، فإننا نخضع للمراقبة الفعالة على نحوٍ متزايد. فالشركات تجمع وتبيع البيانات الخاصة بمشترياتنا واستخدامنا للإنترنت ولشبكات التواصُل الاجتماعي، واستهلاكنا للأجهزة الكهربية وسجلاتنا الخاصة بالاتصال والمحادثات النصية، وتاريخنا الوظيفي وصحتنا. كما يُمكن معرفة مواقعنا من خلال تتبُّع المُكالمات الهاتفية والسيارات المُتَّصلة بالإنترنت. كما أن الكاميرات تتعرَّف على وجوهنا ونحن نسير في الشوارع. كل هذه البيانات وغيرها الكثير، يُمكن أن تُربط خيوطها معًا على يد نظم تكامل المعلومات الذكية لإصدار صورةٍ كاملةٍ إلى حدٍّ ما عما يفعله كل واحدٍ منا، وكيف نعيش حياتنا ومن نُحب ومن نكره، ومن سنُصوِّت له في الانتخابات.4 وستتفوَّق تلك النظم، حتى إن شتازي الألمانية ستصير مُجرَّد نظامٍ هاوٍ إذا ما قُورنت بها.

(١-٢) التَّحكُّم في سُلوكك

بمجرد أن تُصبح إمكانات المُراقبة جاهزة للاستخدام في تلك النظم؛ فالخطوة القادمة هي تعديل سُلوكك ليتماشى مع أهواء من يُسيِّرُون هذه النُّظُم. ومن الطرق الأولية في هذا الشأن الابتزاز المخصَّص الآلي؛ فالنظام الذي يفهم ما الذي تفعله، سواء بالاستماع إليك أو بقراءة ما تكتبه أو بمُراقبة ما تفعله، يُمكنه بسهولة أن يكتشف الأشياء التي لا يجب عليك فعلها. وإذا وجدك مُتلبِّسًا بشيءٍ ما، فسيتواصل معك للحصول على أكبر قدرٍ من المال منك (أو لإكراهك على القيام بسُلوكٍ ما، إذا كان الهدف هو التَّحكُّم السياسي أو التجسُّس). إن الحصول على هذه الأموال يعمل كإشارة التحفيز المثالية بالنسبة لخوارزميات التَّعلُّم المُتعمِّق، لذلك من المُتوقَّع أن تتطور نظم الذكاء الاصطناعي تطورًا سريعًا في قدرتها على التَّعرُّف على السُّلوكيات الخاطئة والتَّربُّح منها. في أوائل عام ٢٠١٥، أشرتُ إلى خبير أمنٍ حاسوبي أنَّ نُظُم الابتزاز الآلي المبنية على أساس التَّعلُّم المعزَّز قد تُصبح عما قريبٍ شيئًا واقعيًّا؛ حينها ضحك هذا الخبير وقال لي إن هذه النظم موجودة بالفعل. وأول برنامج ابتزازٍ عُرف وذاع صيته كان يُسمَّى «دليلة»، والذي اكتُشف في يوليو من عام ٢٠١٦.5

هناك طريقة أبرع لتغيير سلوك الناس وهي تعديل بيئتهم المعلوماتية بحيث يؤمنون بأشياء مختلفة ويتَّخذون قراراتٍ مختلفة. يستخدم بالطبع المعلنون هذه الطريقة منذ قرون كوسيلة لتغيير سلوك الشراء عند الأفراد. كما أنَّ لحملات الدعاية المُنظَّمة التي هي أداة من أدوات الحرب والهيمنة السياسية، تاريخ أطول بكثير.

إذن، ما الذي اختلف الآن؟ بادئ ذي بدء، لأنَّ أجهزة الذكاء الاصطناعي تستطيع تتبُّع عادات القراءة الإلكترونية لشخصٍ مُعيَّن، وتفضيلاته ومستوى معرفته المُحتمل، فيُمكنها أن ترسِل رسائل مُوجَّهة ومخصصة لزيادة التأثير على ذلك الفرد بينما تُقلِّل من مخاطر إنكار المعلومات الواردة فيها. ثانيًا: نظام الذكاء الاصطناعي سيعرف ما إذا قرأ الشخص الرسالة أم لا، وما المُدة التي قضاها في القراءة وما إذا نقر على أي روابط إضافية مُرفقة في الرسالة أم لا. بعد ذلك، سيستخدم كل هذه الإشارات كتقييمٍ فوري لنجاح أو فشل محاولته للتأثير على هذا الفرد؛ بهذه الطريقة، سيتعلم بسرعة كيف يكون فعالًا أكثر في عمله. وبهذه الطريقة، استطاعت خوارزميات انتقاء المُحتوى على مواقع التواصل الاجتماعي أن يكون لها مثل هذا التأثير الخبيث على آراء المُستخدِمين السياسية.

تغيير آخرُ جديد يتمثل في أن دمج تقنيات الذكاء الاصطناعي والرسوم الحاسوبية وتوليف الكلام، يجعل من الممكن إنتاج ما يُسمَّى ﺑ «التزييف المُتعمِّق»؛ وهو عبارة عن مُحتوًى حقيقي من مشاهد مرئيةٍ ومسموعةٍ لأيِّ شخصٍ وهو يقول أو يفعل أي شيءٍ تقريبًا. هذه التقنية ستتطلَّب أكثر بقليلٍ من مجرَّد وصفٍ شفهي للحدث المُراد تزييفه، مما يجعلها طوع أي شخصٍ في العالم تقريبًا. هل تُريد مقطعًا مُصوَّرًا بالهاتف للسيناتور «س» وهو يتلقَّى رشوةً من تاجر المخدرات «ص» في المؤسسة المشبوهة «ع»؟ بسيطة! هذه النوعية من المحتوى يُمكن أن تُوجِد إيمانًا راسخًا بأشياء لم تحدُث قط.6 بالإضافة إلى ذلك، تستطيع نظم الذكاء الاصطناعي أن تُولِّد الملايين من الهويات الزائفة، والتي تُسمَّى ﺑ «كتائب الإنترنت»، والتي يُمكنها يوميًّا أن تولِّد مليارات التعليقات والتغريدات والتوصيات، وتُبدِّد بذلك جهود البشر العاديِّين لتبادل المعلومات الحقيقية. الأسواق الإلكترونية مثل «إي باي» و«تاوباو» و«أمازون»، والتي تعتمد على نُظُم السُّمعة7 لبناء الثقة بين المشترين والبائعين، هي دائمًا في حربٍ مع كتائب الإنترنت المُصمَّمة لإفساد عملها.

وأخيرًا، وسائل التحكُّم يُمكن أن تكون مباشِرةً إذا استطاعت حكومةٌ ما أن تُفعِّل نظام الثواب والعقاب بناءً على السلوك. إن مثل هذا النظام سيُعامل الناس باعتبارهم خوارزميات تعلُّمٍ مُعزَّز، ويُدربهم على التحقيق الأمثل للهدف الذي وضعته الدولة لهم. والإغراء في هذا الأمر بالنسبة إلى الحكومات، خصوصًا تلك التي لها أسلوب أوتوقراطي، هي أن تُفكِّر كما يلي: سيكون من الأفضل لو تصرَّف الجميع تصرُّفًا جيدًا وتحلَّوا بحِسٍّ وطني وساهموا في تقدُّم الدولة؛ وبما أن التقنية تُساعد على قياس سلوك الأفراد وتصرفاتهم ومساهماتهم، إذن، فسيكون من الأفضل أن نبني نظامًا تقنيًّا للمراقبة والتحكُّم يكون مبنيًّا على مبدأ الثواب والعقاب.

هناك العديد من المشاكل في هذا التفكير. أولًا: هذا التفكير يتجاهل الكُلفة النفسية الناتجة عن العيش تحت نظامٍ قائم على المُراقبة الشديدة والإكراه؛ فالتناغُم الخارجي الذي يُخفي وراءه بؤسًا داخليًّا لا يُمكن أن يُعدَّ وضعًا مثاليًّا أبدًا. إن جميع الفعال الطيبة لن تُصبح كذلك، ولكن ستصير فعالًا لتكثير مجموع النقاط الخاصة بالفرد، وسينظر إليها المُتلقِّي على هذا الأساس. أو الأسوأ من هذا أن مفهوم العمل التطوعي سيختفي تدريجيًّا ليُصبح ذكرى باهتة لشيءٍ اعتاد الناس فعله فيما مضى. فتحْت وطأة هذا النظام، لن يكون لزيارة صديقٍ مريضٍ في المستشفى أي أهمية أخلاقيةٍ أو قيمة عاطفية، وستكون مثلها كمثل وقوفك بالسيارة عند الإشارة الحمراء. ثانيًا: هذا التفكير يقع ضحية لنفس نمط الفشل الذي يقع فيه النموذج القياسي للذكاء الاصطناعي من حيث إنه يفترض أن الغاية المُعلنة هي في الواقع الغاية المُضمَرة الحقيقية. في نهاية المطاف، سيسود قانون جودهارت وسيعمل الأفراد في ظلِّه على التحقيق الأمثل للمعايير الرسمية لقياس السلوك الظاهري، تمامًا كما تعلَّمت الجامعات كيفية التحقيق الأمثل لمعايير الجودة التي تستهدفها نظم تصنيف الجامعات عالميًّا بدلًا من أن تبذُل جهدها في تطوير جودتها الحقيقية (تلك التي لا تقيسُها نُظُم التصنيف).8 وأخيرًا، فإن فرض معايير مُوحَّدة لقياس جودة السلوك يتغافل بدوره عن نقطة مهمةٍ وهي أن المجتمعات الناجحة هي المُجتمعات التي تتكوَّن من طوائف عديدةٍ من الأفراد يُساهم كل واحدٍ منهم لرخائه بالطريقة الخاصة به.

(١-٣) الحق في الأمن العقلي

إذا نظرنا إلى ما أنجزته الحضارة البشرية، فإننا نجد أنَّ التحسُّن التدريجي في الأمن البدني هو أحد أهم إنجازاتها على الإطلاق. فأغلب البشر يعيشون حياتهم اليومية بلا خوفٍ دائم من الإصابة والموت. كما أن المادة الثالثة من الإعلان العالمي لحقوق الإنسان تنُصُّ على أنَّ «الحياة والحرية والأمن الشخصي هي حقٌّ لجميع الأفراد».

هنا أودُّ أن أُضيف أن الأمن العقلي هو حقٌّ للجميع أيضًا؛ فنحن يحقُّ لنا أن نعيش في بيئةٍ تعُمُّها البيانات الحقيقية إلى حدٍّ كبير. إن البشر يميلون إلى تصديق الأدلة التي يرَونها بأعينهم ويسمعونها بآذانهم؛ فنحن نثِق في عائلاتنا وأصدقائنا ومُعلِّمينا و(بعض) المصادر الإعلامية عندما يُخبروننا أنَّ ما يُؤمنون به هو الحق والحقيقة. ورغم أنَّنا لا نتوقَّع أن ما يُخبرنا به بائعو السيارات المُستعملة أو السياسيُّون هو الحقيقة، فإننا نُواجِهُ صعوبةً في تصديق أنهم قد يكذبون وبوقاحةٍ كما يفعلون أحيانًا. ولهذا، فنحن كائنات شديدة الضَّعف في مواجهة التقنية التي تُروِّج للمعلومات المُضلِّلة.

والحق في التَّمتُّع بالأمن العقلي يبدو أنَّه لا يحفل بأيِّ أهميةٍ في الإعلان العالمي. إن المادتَين الثامنة عشرة والتاسعة عشرة تنُصَّان على حقوق «حرية التفكير» و«حرية الرأي والتعبير». وبلا شك، فإنَّ تفكير المرء وآراءه تُبنى ولو جزئيًّا على البيئة المعلوماتية التي يكون فيها؛ ومن ثمَّ فإنها تخضع لنصِّ المادة التاسعة عشرة التي تنصُّ على «الحق في مشاركة المعلومات والأفكار من خلال أي وسيلةٍ إعلامية ودونما اعتبار للحدود الجغرافية.» وهذا يعني أنَّ أيَّ شخصٍ في أي مكانٍ في العالم، لدَيه الحق في نقل المعلومات الزائفة إليك. وهنا مَكمن الصُّعوبة؛ فالأمم الديموقراطية، وعلى وجه الخصوص الولايات المتحدة الأمريكية، كانت ولا تزال في أغلب الوقت غير راغبة في منع تناقُل الأخبار الزائفة في الأمور العامة بسبب المخاوف المُبرَّرة من التحكُّم الحكومي في حرية التعبير (أو غير قادرة دستوريًّا على ذلك). وبدلًا من اتباع الفكرة التي ترى عدم وجود حرية تفكيرٍ دون وصولٍ للمعلومات الحقيقية، فإنَّ الدول الديموقراطية يبدو أنها وثقت على نحوٍ ساذج في الفكرة التي مفادها أنَّ الحقيقة سوف تنتصر في النهاية، وهذه الثقة العمياء هي ما جعلتنا عُرضةً للخطر من غير حماية. ألمانيا تُمثِّل استثناءً في هذا الشأن، فقد مرَّرت مؤخَّرًا قانونًا يُسمَّى «إقرار القانون في شبكات التواصُل الاجتماعي»، والذي يُلزِم منصَّات تقديم المحتوى بحذف أي محتوًى محظور سواء أكان خطابَ كراهيةٍ أو يتضمَّن أخبارًا كاذبة، لكن هذا القانون قُوبل بموجةٍ عارمةٍ من النقد بكونه قانونًا غير ديموقراطيٍّ وغير عملي.9
إذن، في الوقت الحالي لنا أن نتوقَّع أن يظلَّ أمنُنا العقلي تحت الهجوم، ولا حاميَ له إلا الجهود التجارية والتطوُّعية. تلك الجهود تتضمَّن مواقع تقصِّي الحقائق مثل factcheck.org وsnopes.com، ولكن هناك بالطبع مواقع «تقصِّي حقائق» أخرى تُعلن عن الحقائق على أنها أكاذيب وتُروِّج للأكاذيب على أنها حقائق.
أبرز المؤسَّسات التي تتعامل مع المعلومات مثل جوجل وفيسبوك وُضعت تحت ضغوطٍ شديدةٍ في أوروبا والولايات المتحدة الأمريكية من أجل «فعل شيءٍ حيال هذا الأمر». فها نحن نراهم يُجرِّبون بعض الطرائق للإبلاغ عن المحتوى الكاذب ونبذه باستخدام مُراقِبِين آليِّين وبشريِّين على حدٍّ سواء، وتوجيه المُستخدِمين إلى المصادر المُوثَّقة التي تُبطل آثار المعلومات الزائفة. في نهاية الأمر، جميع تلك الجهود المبذولة مَبنية على نظم السُّمعة المُتبادلة؛ فالمصادر تُعتبر مصادر موثوقة لأن بعض المصادر الموثوقة أشادت بها على أنها أهل للثقة. وإذا ما انتشر كمٌّ كبير من المعلومات الزائفة، فإن مثل تلك النُّظم يُمكن أن تفشل فشلًا ذريعًا؛ فالمصادر الموثوقة بالفعل يمكن أن تُصبح غير موثوقة والعكس صحيح، وهذا ما يبدو أننا نراه حاصلًا في وقتنا الحاضر مع المصادر الإعلامية الكبيرة في الولايات المتحدة مثل «سي إن إن» و«فوكس نيوز». وبهذا الصَّدد أشار أفيف أوفديا؛ وهو خبير تقني يعمل في مجال مواجهة المعلومات الزائفة، إلى ما يحدث ووصفه بأنَّه: «نهاية عصر المعلومات؛ فشل كارثي في عالم الأفكار.»10

وإحدى طرائق حماية عمل نظم السُّمعة هي إدخال مصادر هي أقرب ما تكون إلى الحقيقة الثابتة. إن حقيقةً واحدةً «تمَّ التأكد من صحتها» يمكن لها أن تُبطل أي عددٍ من المصادر التي أصبحت محل ثقةٍ بطريقةٍ أو بأُخرى إذا ما حاولت نشر معلوماتٍ تُناقض تلك الحقيقة المعروفة. في العديد من البلدان، يعمل الكاتب العدل كمصدرٍ للحقيقة الثابتة ليُحافظ على نزاهة المعلومات القانونية والعقارية؛ فغالبًا ما يكون الكُتَّاب العُدول طرفًا مُحايدًا في أي صفقةٍ، كما أنَّهم يجري اعتمادهم من الحكومات أو الجمعيات المهنية. (في مدينة لندن، تُؤدي شركة ورشيبفول كمباني أوف سكرفينارز» هذا الدور منذ عام ١٣٧٣، مما يدلُّ أنَّ هناك ثباتًا ملحوظًا في دور الإخبار بالحقائق.) وإذا وُضعت المعايير الرسمية والمؤهِّلات المهنية وإجراءات الاعتماد لمتقفِّي الحقائق، فإن هذا سيُساعد على الحفاظ على صحة تدفُّقات المعلومات التي نعتمد عليها. إن منظمات مثل مجموعة «دبليو ثري سي كردبل ويب» و«كردبلتي كوليشان» تهدف إلى تطوير طرائق تقنية وتعتمد على التعهيد الجماعي لتقييم مُقدمي المعلومات مما سيُتيح للمُستخدِمين تصفية المصادر غير الموثوق بها.

أما الطريقة الثانية لحماية نُظُم السُّمعة فهي بفرض تكلفةٍ على تقديم ونشر المعلومات الزائفة. وهكذا، فإن بعض مواقع تقييم الفنادق تقبل فقط المُراجعات بخصوص فندقٍ ما من الأشخاص الذين حجزوا ودفعوا للمبيت في غرفةٍ من إحدى غُرفه، بينما بعض المواقع الأخرى تقبل المُراجعات مِن كُلِّ من هبَّ ودبَّ. ولا يخفى على أحدٍ أنَّ التقييمات على المواقع الأولى ستكون أقلَّ تحيُّزًا بنحوٍ ملحوظ بسبب التَّكلفة المفروضة على المُراجعات المُزيَّفة (وهي دفع ثمن المبيت في إحدى غرف الفندق دون الذهاب إليه أصلًا).11 تظلُّ العقوبات «النظامية» محل خلافٍ وإثارة للجدل؛ فلا أحد يُريد أن يرى وزارةً للحقيقة، وفي الوقت ذاته، فإن القانون الألماني السابق الذكر يُعاقب منصة تقديم المحتوى فقط، وليس الشخص الذي شارك الأخبار الكاذبة. على الجانب الآخر، ومع ازدياد عدد الدول وعدد الولايات داخل الولايات المتحدة الأمريكية التي تُجرِّم تسجيل المكالمات الهاتفية دون تصريح، فإنه من المُفترض، على الأقل، أن يكون من المُمكن فرض عقوباتٍ على إنشاء تسجيلاتٍ صوتية ومرئية زائفة للأشخاص الحقيقيِّين.

وأخيرًا، هناك حقيقتان أُخرَيان تصُبَّان في صالحنا. الأولى هي أن لا أحد تقريبًا يُريد عمدًا أن يُخدع وأن يتم التلاعُب به. (أنا لا أقصد بذلك أن الآباء دائمًا ما يتحرَّون الحقيقة أيَّما تحرٍّ ويبحثون عن مدى مصداقية أولئك الذين يمدحون ذكاء أطفالهم ولُطفهم، ولكن أقصد أنَّهم أقل عُرضةً للسَّعى وراء الحصول على استحسان أي شخصٍ معروف عنه أنَّه كذوب.) وهذا يعني أنَّ الأشخاص من جميع الاتجاهات السياسية لدَيهم ما يبعثُهم على تبنِّي الأدوات التي تُساعدهم على التفريق بين الحقائق والأكاذيب. أما الحقيقة الثانية، فهي أن لا أحد يُريد أن يُوصَم بالكذب، وعلى وجه الخصوص المنصات الإخبارية. هذا يعني أنَّ مُقدِّمي المعلومات، خصوصًا أولئك الذين يخافون على سُمعتهم، لدَيهم ما يبعثُهم على الانضمام إلى الجمعيات المهنية والامتثال للقواعد السلوكية التي تدعم قول الحقيقة. وبناءً على ذلك، فإن منصات التواصُل الاجتماعي يُمكنها أن تُقدِّم لمُستخدميها خيار مُشاهدة المُحتوى فقط من المصادر ذات السُّمعة الحسنة التي تمتثل إلى مثل تلك القواعد السلوكية وتُخضع نفسها إلى طرفٍ ثالثٍ لمُراجعة واقتفاء الحقائق.

(٢) الأسلحة الفتاكة الذاتيَّة التَّشغيل

تُعرِّف الولايات المُتَّحدة الأمريكية نظم الأسلحة الفتاكة الذاتيَّة التَّشغيل على أنَّها نظم الأسلحة التي «تُحدِّد موقع الأهداف البشرية وتصوِّب وتقضي عليها دون تدخُّلٍ بشري». وقد وُصفت نظم الأسلحة الذاتيَّة التَّشغيل تلك، لسببٍ وجيهٍ، بأنَّها «الاكتشاف الثوري الثالث في مجال الأسلحة»، بعد اختراع البارود والأسلحة النووية.

ربما تكون قد قرأت مقالاتٍ في وسائل الإعلام حول نُظم الأسلحة الذاتيَّة التَّشغيل، والتي غالبًا ما ستُطلق عليها «الروبوتات القاتلة» ثمَّ تزيِّن نفسها بصور من سلسلة أفلام «المدمِّر» «ذا تيرمناتر». وهذا الأمر مُضلِّل على الأقل في نُقطتَين؛ الأولى: أنَّه يُصوِّر الأسلحة الذاتية التَّشغيل بأنها خطر مُحدِق لأنَّها قد تسعى للسيطرة على العالم وتدمير الجنس البشري؛ والثانية: أنه يُوحي بأنَّ تلك الأسلحة ستكون على هيئةٍ بشريةٍ ولها وعي، وشريرة.

والتأثير المُجمَل لهذا التَّصوير من وسائل الإعلام لهذه المسألة كان يُحاول تصديرها على أنَّها محض خيالٍ علمي. حتى الحكومة الألمانية انتهجت نفس الطريقة؛ فقد أصدرت مؤخرًا بيانًا12 تؤكِّد فيه على أنَّ «امتلاك القدرة على التَّعلُّم وتطوير الوعي بالذات يُشكِّل صفةً لا غنى عنها في تعريف المهام الفردية أو نظم الأسلحة بأنها ذاتيَّة التَّشغيل أو مستقلة». (وهذا الكلام يُفهم كما لو أنَّك تُؤكِّد أنَّ الصاروخ لا يُسمَّى ولا يصير صاروخًا إلا إذا تجاوزت سُرعته سرعة الضوء). في الحقيقة، الأسلحة الذاتيَّة التَّشغيل سيكون لها مقدار الاستقلال نفسه الذي يتمتَّع به برنامج لعب الشطرنج، والذي يُعطى مهمة الفوز بالمباراة، لكنَّه يُقرِّر بنفسه تحرُّكاته على رقعة اللعب وأي قطع للخصم سيتخلَّص منها.
fig7
شكل ٤-١: (على اليمين) طائرة «هاروب»؛ سلاح الاغتيالات التي من إنتاج شركة صناعات الفضاء الإسرائيلية؛ (على اليسار) صورة ثابتة من مقطع الفيديو الخاص بالدرون الدقيق «سلوتاربوت» تُوضِّح تصميمًا مُحتملًا لسلاحٍ ذاتي التَّشغيل يحتوي على قذيفةٍ صغيرةٍ مُتفجِّرة.
الأسلحة الفتاكة الذاتيَّة التَّشغيل ليست خيالًا علميًّا؛ فهي موجودة بالفعل. ورُبَّما أوضح مثالٍ على ذلك هو سلاح الاغتيالات الإسرائيلي «هاروب» (انظر الشكل ٤-١، الصورة التي على اليمين)، وهي طائرة طول جناحيها يُساوي ١٠ أقدام، وبها رأس مُتفجِّرًا يزن ٥٠ رطلًا. وهي تبحث قُرابة ست ساعاتٍ فوق منطقةٍ جُغرافيةٍ مُحدَّدةٍ عن أيِّ أهدافٍ تُوافق المعيار المُحدَّد ثُمَّ تقضي عليها. ذلك المعيار يمكن أن يكون «أي شيء يبُثُّ إشارات رادار ويُشبه الرادار المضادَّ للطائرات» أو «أي شيءٍ يُشبه الدَّبابة».
بدمج الاكتشافات الحديثة في تصميم الطَّوافات الرباعية المُصغَّرة، والكاميرات المُصغَّرة، ورُقاقات الرؤية الحاسوبيَّة، وخوارزميات الملاحة والخرائط، ووسائل اكتشاف البشر وتتبُّعهم، فمن المُحتمل أن نرى عما قريبٍ سلاحًا مضادًّا للأفراد مثل الدرون الدقيق «سلوتاربوت»13 الموضح في الشكل ٤-١ (في الصورة التي على اليسار). مثل هذا السلاح قد يُكلَّف بمهاجمة أي شخصٍ يُوافق معايير بصريةً مُعينة (مثل السِّن والنَّوع والملابس ولون البشرة وهلُمَّ جرًّا)، أو حتى أشخاصًا بعينهم استنادًا إلى تقنية التَّعرُّف على الوجوه. وقد أُخبرتُ أنَّ وزارة الدفاع السويسرية قد بنت بالفعل واختبرت نموذجًا حقيقيًّا من هذا السلاح، وقد وجدت أنَّ تلك التقنية، كما هو متوقَّع، إنما هي تقنية فعالة وعملية وفتاكة في الوقت ذاته.
منذ عام ٢٠١٤ والمحادثات الدبلوماسية جارية في جنيف، وقد تقود إلى معاهدةٍ لحظر الأسلحة الفتاكة الذاتية التَّشغيل. في الوقت نفسه، فإنَّ بعضًا من أبرز المشاركين في تلك المحادثات (الولايات المتحدة الأمريكية، والصين، وروسيا، وإسرائيل والمملكة المتحدة إلى حدٍّ ما) مُنهمكون في منافسةٍ خطيرةٍ لتطوير الأسلحة الذاتية التَّشغيل. على سبيل المثال، في الولايات المتحدة الأمريكية، يهدف برنامج «العمليات المُشتركة في المناطق المتنازع عليها» إلى المُضي قدُمًا نحو الاستقلالية وذاتية التَّشغيل عبر تمكين الدرونات من العمل تحت أقصى ظُروفٍ من انقطاع الاتصالات. ويقول مدير المشروع إن تلك الدرونات «ستصطاد في جماعات كالذئاب».14 في عام ٢٠١٦، قدَّمت القوات الجوية الأمريكية عرضًا لكيفية نشر ١٠٣ من درونات «بريدكس» الدقيقة من ثلاث طائراتٍ مقاتلاتٍ من طراز «إف-إيه ١٨». وطبقًا للإعلان، «فإن درونات «بريدكس» ليست كيانات فردية مُبرمجة للتنسيق فيما بينها، بل تعمل كوحدةٍ واحدةٍ وتشارك دماغًا موزعة واحدة لاتخاذ القرارات والتَّكيُّف مع بعضها كأنَّها سرب من الطيور في الطبيعة».15

ربَّما تظن أن من الواضح جدًّا أنَّ بناء آلاتٍ يمكنها أن تُقرِّر أن تقتل البشر هو فكرة سيئة جدًّا. لكن عبارة «من الواضح جدًّا» ليست دائمًا مُقنعةً للحكومات، بما في ذلك حكومات بعض الدول المذكورة في الفقرة السابقة، والتي عقدت العزم على تحقيق ما تظنه تفوقًا استراتيجيًّا. سبب آخر أكثر إقناعًا يدعونا لنبذ فكرة الأسلحة الذاتية التَّشغيل هو أنَّها «أسلحة قابلة للتَّوسُّع قادرة على إحداث دمارٍ شامل».

ومصطلح «قابلة للتَّوسُّع» هو أحد مصطلحات مجال علم الكمبيوتر، وتُوصف عملية ما بأنَّها قابلة للتَّوسع إذا كان بإمكانك تنفيذ مليون نسخةٍ منها إذا اشتريت مُكونات كمبيوتر مادية أكثر بمليون مرة. ومثال ذلك هو ما نراه من شركة جوجل التي تُعالج قُرابة الخمس مليارات عملية بحثٍ في اليوم الواحد، ليس بتوظيف ملايين الموظفين، ولكن باستخدام ملايين أجهزة الكمبيوتر. وبشأن الأسلحة الذاتية التَّشغيل، فباستطاعتك أن تُنفِّذ عمليات قتلٍ أكثر بمليون مرة إذا اشتريت أسلحة أكثر بمليون مرة، وهذا راجع تحديدًا إلى أنَّها «أسلحة ذاتية التَّشغيل». فبخلاف الدرونات المُسيَّرة عن بُعد أو رشاشات «آي كيه ٤٧»، فإن تلك الأسلحة الذاتية التَّشغيل لا تحتاج إلى أفرادٍ بشريين لمُراقبة عملهم.

باعتبارها أسلحة دمارٍ شاملٍ، فإن تلك الأسلحة الذاتية التَّشغيل القابلة للتوسُّع تُعطي المُهاجم بعض المُميزات إذا ما قُورنت بالأسلحة النووية والقصف البساطي؛ فهي تترك المباني والأماكن من غير أذًى، ويُمكن أن تُرسَل لتنتقي فقط أولئك الذين قد يُهدِّدون قوات أجنبية مُحتلَّة وتقضي عليهم. وهذا السلاح قد يُستخدَم بالتأكيد لمحو طائفة عرقيةٍ بأكملها من على وجه الأرض أو جميع أتباع دينٍ بعينه (إذا كان لأتباعه صفة ظاهرية مُميِّزة). وفوق كل ذلك، في حين أن استخدام الأسلحة النووية يُعد عتبةً كارثيةٍ، قد نجحْنا (لا لشيءٍ سوى بالحظ المحض) في تجنُّبها منذ عام ١٩٤٥، فإن الأسلحة الذاتية التَّشغيل القابلة للتوسُّع ليس لها مثل تلك العتبة. فالهجمات يُمكن أن تشتد ضراوتها بسلاسةٍ لتصل من ١٠٠ ضحية إلى ١٠٠٠ ضحيةٍ إلى ١٠ آلاف ضحيةٍ إلى ١٠٠ ألف ضحية. وبالإضافة إلى الهجمات الفعلية، فإن مُجرَّد «التهديد» باستخدام هذه الأسلحة يجعلها أداةً فعالة لنشر الرُّعب والقمع. إن تلك الأسلحة ستُقلِّل بشدةٍ من أمن الإنسان على جميع المستويات؛ الشخصي والمحلي والوطني والدولي.

هذا لا يعني أنَّ الأسلحة الذاتية التَّشغيل ستُساهم في نهاية العالَم كما صُوِّر الأمر في سلسلة أفلام «ذا تيرمناتر». إن تلك الأسلحة لا يجب أن تكون ذكيةً على وجه خاص — قد تحتاج السيارات ذاتية القيادة إلى ذكاءٍ أكبر منها — ولن تكون مُهمَّتُها من نوعية المهام «التي تسعى للسيطرة على العالم». إن الخطر الوجودي للذكاء الاصطناعي لن يأتي في المقام الأول من بعض الروبوتات القاتلة ذات الذكاء المحدود. على الجانب الآخر، الآلات ذات الذكاء الخارق إذا تصادمت مع الجنس البشري، فقد تُسلِّح بالطبع نفسها بهذه الطريقة، بتحويل هؤلاء القتلة الآليين الأغبياء نسبيًّا إلى امتداداتٍ مادية لنظام تحكُّمٍ عالمي.

(٣) القضاء على مفهوم العمل الذي عهدناه

الآلاف من المقالات وأعمدة الرأي في الجرائد وغيرها من وسائل الإعلام، والكثير من الكُتب كُتبت حول موضوع استيلاء الروبوتات على وظائف البشر. مراكز الأبحاث تظهر حول العالم لفهم ما الذي سيحدث على الأرجح.16 ويُلخِّص عنوان بحث مارتن فورد «بُزوع فجر الروبوتات: التقنية وخطر المُستقبل الخالي من الوظائف»،17 وعنوان بحث كالوم تشيس «التَّفرُّد الاقتصادي: الذكاء الاصطناعي وموت الرأسمالية»18 القلق حيال هذا الأمر تلخيصًا مُمتازًا. ورغم أنِّي لستُ مؤهلًا بأي حالٍ من الأحوال (كما سيتَّضح لاحقًا) للنقاش في هذه النقطة التي هي في صُلبها أمرًا لعُلماء الاقتصاد،19 فإني أظن أنَّ هذه المُشكلة شديدة الأهمية بحيث نترك أمرها للاقتصاديين وحدَهم.
مُشكلة «البطالة التقنية» ظهرت لأول مرةٍ في مقالٍ مشهورٍ كتبه جون ماينارد كينز تحت عنوان «الخيارات الاقتصادية لأحفادنا». لقد كتب هذا المقال في عام ١٩٣٠ عندما أصاب بريطانيا الكساد الكبير وتسبَّب في موجةٍ عارمةٍ من البطالة، لكنَّ هذا الموضوع له تاريخ أقدم بكثير. لقد قدم أرسطو النقطة الرئيسية بوضوحٍ شديد في الباب الأول من كتابه «السياسة» وقال:

إذا افترضنا أنَّ كلَّ آلةٍ تقدر على إنجاز عملها، وتُطيع أو تتوقَّع رغبة الآخرين … وإذا كان، على نحو مشابه، مكُّوك النَّسيج سيحُوك خيوط الملابس من غير أيادٍ تغزلُه، وإذا كانت ريشة العازف ستضرب أوتار القيثارة بنفسها، فلا حاجة لربِّ العمل إذن بالخدم أو السادة بالعبيد.

جميعنا يُوافق أرسطو في ملاحظته حول حدوث انخفاضٍ فوري في العمالة حين يجد رب العمل وسيلةً آليةً لإنجاز العمل الذي كان يُنجزه العامل البشري سابقًا. والمُشكلة هنا هي ما إذا كانت الآثار الناتجة عن ذلك التَّحوُّل؛ «آثار التَّعويض»، والتي يميل إلى زيادة العمالة، ستُعوِّض حقًّا ذاك الانخفاض الحاصل أم لا. سيقول المتفائلون: نعم سيُعوِّض ذاك الانخفاض، وفي خضمِّ الجدال الحالي، ستراهم يُشيرون إلى جميع الوظائف الجديدة التي ظهرت بعد الثورات الصناعية السابقة. أما المُتشائمون فسيقولون: لا لن يحدث هذا، وسيُجادلونك بأن الآلات هي التي ستتولى إنجاز جميع تلك «الوظائف الجديدة» أيضًا. عندما تحل الآلات مكاننا في الأعمال البدنيَّة الجُهد، يمكن أن نتَّجه إلى الاشتغال بالأعمال الذهنية. لكن ماذا إذا حلَّت الآلات مكاننا أيضًا في إنجاز كل ما يتطلَّب مجهودًا ذهنيًّا، فما الذي بقي لنا؟

صوَّر ماكس تيجمارك هذا الجدال في كتابه «الحياة ٣٫٠» كحوارٍ بين حصانَين حول ظهور مُحرِّك الاحتراق الدَّاخلي في عام ١٩٠٠. تنبأ أحد الحصانين ﺑ «وظائف جديدةٍ للأحصنة. … هذا هو دأب الحياة دائمًا، كما هو الحال عندما اختُرعت العجلة والمحراث». ولكن ما حدث للأسف أنَّ «الوظيفة الجديدة» لمعظم الأحصنة كانت أن يُصنع من لحمها طعام للحيوانات المنزلية الأليفة.

ظلَّ هذا الجدال مُتَّقدًا لآلاف السنين؛ لأنَّ هناك تأثيرات في كلا الاتجاهَين. والنتيجة الحقيقية تتوقَّف على كون أيِّ تلك التأثيرات أهم لنا. ومثال ذلك، ما حدث لعُمال طلاء المنازل عندما تطوَّرت التقنية. ولتسهيل تصوُّر الأمر، سأستخدِم عرض فُرشاة الطلاء لأوضِّح درجة الأتمتة:
  • إذا كانت الفُرشاة بعرض شعرةٍ واحدة (حوالي عُشر ملِّيمتر)، فسيستغرق طلاء منزلٍ واحدٍ حياة آلاف البشر؛ ومن ثم لا أحد سيعمل في طلاء المنازل.

  • إذا كان لدَينا فرشاة بعرض ١ مليمتر، فرُبَّما وجدنا بعض الجداريات الصَّغيرة مطليَّة في القصر الملكي على يد حفنةٍ من الرسَّامين. وإذا كان لدَينا فرشاة بعرض ١ سنتيمتر، فسنجد الطبقة النَّبيلة كلها ستحذو حذو القصر الملكي.

  • ما إن نحصل على فرشاةٍ بعرض ١٠ سنتيمترات (٤ بوصات)، فسنُفكِّر في الأمر بطريقةٍ عمليةٍ، وسنجد أنَّ معظم أصحاب المنازل سيطلُون بيوتهم من الداخل والخارج، رُغم أنهم لن يُكرِّروا طلاء منازلهم في وقتٍ قصير، وسيجد الآلاف من عمال طلاء المنازل عملًا لهم.

  • عندما نحصُل على الفُرشات الأسطوانية ورشاشات الطِّلاء (والتي تُعادل فرشاةً بعرض مترٍ واحد تقريبًا)، فإن التكلفة ستنخفض انخفاضًا كبيرًا، لكنَّ السُّوق حينها قد يبدأ في التَّشبُّع ويقلُّ الطَّلب، فيبدأ عدد عُمال طلاء المنازل بالانخفاض بعض الشيء.

  • عندما يدير شخص واحد فريقًا من مائة روبوت لطلاء المنازل (بإنتاجيةٍ تُعادل فرشاة بعرض ١٠٠ متر) فإنَّ منازل بأكملها يمكن أن تُطلى في ساعةٍ واحدةٍ، ولكن لن يكون هُناك سوى عددٍ قليل جدًّا من عمال الطلاء البشريِّين الذين يعملون في هذه المهنة.

بالتالي، فإن التأثير «المباشر» للتطوُّر التقني يعمل في كلا الاتجاهين؛ في بادئ الأمر، مع زيادة الإنتاجية، يمكن أن تزيد التقنية من العمالة عبر تخفيض تكلفة العمل وبالتالي يزداد الطلب عليه، ولكن لاحقًا، كلَّما تطوَّرت التقنية أكثر، قلَّ عدد العمالة البشرية المطلوبة أكثر فأكثر. والشكل ٤-٢ يُوضِّح تلك التَّطورات.20
تنتج العديد من التِّقنيات مُنحنيات مُشابهة. وإذا كُنا، في أي قطاعٍ من القطاعات الاقتصادية، على يسار لمُنحنًى، فإنَّ هذا يعني أنَّ تطوُّر التقنية يزيد من الوظائف في هذا القطاع. والأمثلة في واقعنا المُعاصر قد تشمل مهام مثل إزالة رسوم الجُدران، والتنظيف البيئي، وتفتيش حاويات الشَّحن، وبناء المنازل في البُلدان الأقل تطورًا، والتي جميعها قد تُصبح ذات جدوى اقتصادية أكبر إذا ما أُنجزت بمساعدة الروبوتات لنا. أما إذا كُنا في الجانب الأيمن من المُنحنى، فإنَّ زيادة الأتمتة ستُقلِّل من العمالة. فمثلًا، ليس من الصعب التوقُّع أنَّ مهنة عامل المصعد ستستمر في التَّقلُّص حتى تختفي. على المدى البعيد، يحسُن بنا التَّوقُّع أنَّ معظم الصناعات ستُدفع دفعًا إلى أقصى يمين المنحنى. في وقتٍ قريبٍ، نشر عالما الاقتصاد ديفيد أوتار وآنا سالومنز مقالًا مبنيًّا على دراسةٍ متأنِّيةٍ في مجال الاقتصاد الإحصائي يُقِرُّ بأنَّ «على مدار الأربعين سنةً الماضية، انخفضت الوظائف في جميع الصناعات التي أدخلت الحلول التقنية لزيادة إنتاجيتها».21
fig8
شكل ٤-٢: رسم بياني تصوري للعمالة في مجال طلاء المنازل مع تطوُّر تقنيات الطلاء.
ولكن ماذا عن «آثار التَّعويض» التي وصفها الاقتصاديون المُتفائلون؟
  • بعض الناس سيعملون في صناعة روبوتات الطلاء. كم عددهم؟ أقل «بكثيرٍ» من عدد عُمال الطلاء الذين حلت محلهم الروبوتات؛ وإلا فإن تكلفة طلاء المنازل سترتفع في حالة استخدام الروبوتات (ولن تقل)، وحينها لا أحد سيشتري الروبوتات.

  • سيُصبح طلاء المنازل أقل تكلفةً بعض الشيء، وحينها سيتَّجه الناس إلى طلاء منازلهم مراتٍ أكثر قليلًا.

  • وأخيرًا، لأنَّنا ندفع أقل في طلاء المنازل، فسيكون لدَينا مالٌ أكثر لنصرفه على شراء أشياء أخرى، وهكذا نزيد فُرص العمل في مجالاتٍ أخرى.

حاول الاقتصاديون قياس حجم تلك الآثار في العديد من الصناعات التي تشهد زيادةً في الأتمتة، لكنَّ النتائج غير نهائية بوجهٍ عام.

عبر التاريخ، كان الاتجاه السائد لدى معظم علماء الاقتصاد الذين ناقشوا هذه القضية، هو النظر إليها باستخدام «الصورة الكلية»: الأتمتة تزيد الإنتاجية، إذن، بنظرةٍ عامة، سيكون البشر أفضل حالًا من ناحية أنَّنا سنستمتع بالمزيد من البضائع والخدمات بنفس القدر من العمل.

للأسف، النظرية الاقتصادية لا تتنبأ بأن جميع البشر سيكونون أفضل حالًا نتيجةً للأتمتة. الأتمتة بوجه عام تزيد من حصَّة الدَّخل التي تصبُّ في رأس المال (أي أصحاب آليي طلاء المنازل) وتُنقص من حصَّة الدَّخل التي تصبُّ في العمالة (أي عمال طلاء المنازل السابقين). يرى عالما الاقتصاد إريك براينجولفسن وأندرو ماكافي في كتابهما «عصر الآلة الثاني»، أنَّ هذا الأمر يحدث بالفعل منذ عدة عقود. إن بيانات الولايات المتحدة الأمريكية مُوضَّحة في الشكل ٤-٣، وتُشير إلى أنَّ الأجور والإنتاجية في الفترة ما بين ١٩٤٧ و١٩٧٣، ارتفعتا معًا، ولكن بعد عام ١٩٧٣، ثبتت الأجور بينما أخذت الإنتاجية تزداد حتى تضاعفت. ويُطلِق الكاتبان على هذا اسم «الانفصال العظيم». وهناك المزيد من علماء الاقتصاد البارزين الآخرين الذين حذَّروا من هذا الخطر، من بينهم علماء حصلوا على جائزة نوبل وهم روبرت شيلر ومايك سبينس وبول كروجمان؛ وكلاوس شواب رئيس المنتدى الاقتصادي العالمي؛ ولاري سامرز كبير الخبراء الاقتصاديين بالبنك الدولي ووزير المالية في عهد الرئيس الأمريكي بيل كلينتون.
عادةً ما كان يُشير هؤلاء الذين يختلفون مع فكرة البطالة التِّقنية إلى وظائف مثل وظيفة الصراف داخل أروقة المصارف، والذي يُمكن للصَّراف الآلي أن يُنجز عمله جزئيًّا، ووظيفة صراف متاجر التجزئة الذي صار يُنجز عمله بسرعةٍ بفضل الأرقام التَّسلسُليَّة (أكواد الباركود) وعلامات رقاقات الراديو اللاسلكية (آر إف آي دي) الملصوقة على البضائع والمنتجات. فهُم عادة ما يدَّعون أنَّ هذه الوظائف تزدهر «بفضل» التطوُّر التِّقني. والحقيقة أنَّ الواقع يُصدِّق هذا الكلام؛ فأعداد الصَّرافين في الولايات المتحدة الأمريكية قد تضاعفت تقريبًا في الفترة ما بين عامي ١٩٧٠ و٢٠١٠، ومع ذلك فمن المُهمِّ أن نعرف أنَّ في نفس الفترة ازداد عدد السُّكان بنسبة ٥٠ بالمائة، وازدهر القطاع المالي بنسبة تزيد على ٤٠٠ بالمائة،22 لذلك من الصَّعب أن نُرجع كل الفضل، أو أي فضلٍ مُطلقًا، في هذه الزيادة في الوظائف إلى الصَّرافات الآلية. وللأسف، في الفترة ما بين ٢٠١٠ و٢٠١٦، فقد نحو ١٠٠ ألف صرافٍ وظائفهم، ومن المُتوقَّع طبقًا لمكتب إحصاءات العمل الأمريكي أن يفقد ٤٠ ألفًا آخرون وظائفهم بحلول عام ٢٠٢٦: «الصَّيرفة الإلكترونية والأتمتة يُتوقَّع أن تستمرَّا في إنجاز المزيد والمزيد من المهام التي كان الصَّرافون عادةً ما ينجزونها».23 والبيانات المُتاحة بخصوص صراف متاجر التجزئة لا تُبشِّر بخيرٍ؛ فقد انخفض المُعدَّل الفردي ٥ بالمائة في الفترة ما بين عامي ١٩٩٧ و٢٠١٥، ويُخبرنا مكتب إحصاءات العمل أنَّ «التَّطورات التِّقنية مثل منصَّات الدَّفع الذاتي في متاجر التجزئة وازدياد حركة التَّسوق الإلكتروني، ستستمرُّ في تقليل الحاجة لعمل الصرَّافين في المتاجر.» يبدو لنا أنَّ كلا القطاعين قد بدأ رحلته على منحى الهبوط، والأمر ينطبق على جميع المهن المُنخفضة المهارة تقريبًا، التي تتطلَّب العمل جنبًا إلى جنبٍ مع الآلات.
fig9
شكل ٤-٣: بيانات الإنتاج الاقتصادي ومتوسط الأجور الفعلي في الولايات المتحدة الأمريكية منذ عام ١٩٤٧. (البيانات مأخوذة من مكتب إحصاءات العمل الأمريكي.)
إذن، ما هي الوظائف التي على وشك الاختفاء مع وصول تقنياتٍ جديدةٍ قائمة على الذكاء الاصطناعي؟ المثال الرئيسي لهذا النَّوع من الوظائف والذي يُضرب دائمًا في وسائل الإعلام هو وظيفة القيادة. هناك ما يقرُب من ٣٫٥ ملايين سائق شاحنةٍ في الولايات المُتَّحدة الأمريكية، والعديد من تلك الوظائف سيكون لا محالة عُرضة للأتمتة. إن شركة أمازون، وغيرها من الشركات الأخرى، تستعمل حاليًّا شاحنات ذاتية القيادة لنقل البضائع على الطرق السريعة ما بين الولايات، ولكن بوجود سائقين بشريِّين احتياطيِّين.24 ويبدو من المُحتمل جدًّا عما قريب أن يُصبح الجزء الأطول من رحلة النَّقل على الطرق السريعة مُؤتمتًا كُليًّا، بينما سيتولَّى السائق البشري في الوقت الحالي القيادة داخل المدينة وعملية استلام البضاعة وتسليمها. ونتيجةً لهذه التَّطورات المُتوقَّعة، فإن عددًا قليلًا جدًّا من الشباب لدَيه اهتمام بقيادة الشاحنات كمهنةٍ؛ ومن المُثير للسُّخرية أنَّ هناك نقصًا حادًّا في سائقي الشاحنات حاليًّا في الولايات المتحدة الأمريكية، مما يدفع فجر الأتمتة إلى بزوغٍ مُعجَّل.
لم تسلم الوظائف الإدارية أيضًا من خطر الأتمتة. على سبيل المثال، يتوقَّع مكتب إحصاءات العمل الأمريكي أن تنخفض نسبة العمالة في وظيفة وكلاء التأمين بنسبة ١٣ بالمائة في الفترة ما بين عامي ٢٠١٦ و٢٠٢٦: «إن برمجيات التأمين الآلية تُتيح للعاملين أن يُنجزوا استماراتهم على نحوٍ أسرع من ذي قبل، ممَّا يُقلِّل الحاجة على نحوٍ كبير إلى وكلاء التأمين.» وإذا تطورت التقنيات اللُّغوية كما هو مُتوقَّع، فالعديد من وظائف خدمة العملاء والمبيعات ستكون عُرضةً أيضًا للأتمتة، كما ينطبق هذا الكلام أيضًا على الوظائف القانونية. (في عام ٢٠١٨، تفوَّق برنامج ذكاء اصطناعي على أساتذة قانونٍ مُتمرِّسين في تحليل اتفاقات عدم إفصاحٍ نموذجية، وأنهى المُهمَّة أسرع ﺑ ٢٠٠ مرة.)25 حتى الجوانب النَّمطيَّة في مجال برمجة الكمبيوتر، التي من النوع الذي يجري تعهيده عادة اليوم، هي الأخرى عُرضة للأتمتة. إن تقريبًا أي عملٍ يُمكن تعهيده هو بلا شكٍّ مُرشَّح جيد للأتمتة، وهذا لأنَّ عملية التعهيد ما هي إلا تقسيم العمل إلى مهامَّ صغيرةٍ يُمكن توزيعها والعمل عليها خارج سياق المشروع الرئيسي. وتنتج صناعة «أتمتة العمليات باستخدام البرامج الآلية» أدوات برمجية تُحقق نفس هذا الشيء في المهام الإدارية المنجزة عبر الإنترنت.
ومع تقدُّم الذكاء الاصطناعي، بالطبع من المُمكن (بل من الوارد جدًّا) أن خلال العقود القليلة القادمة، ستُنجز جميع الأعمال النَّمطيَّة؛ البدنية منها والذهنية، بتكلفةً أقل على يد الآلات. ولأنَّنا لم نعُد نصطاد ونجمع الثمار في جماعاتٍ كما اعتدنا منذ آلاف السنين، فإن مُجتمعاتنا استخدمت معظم الناس ليكونوا مثل الروبوتات لأداء مهامَّ يدويةٍ وذهنية مُتكرِّرة، لذلك ربما ليس من المُستغرب أن تحل الروبوتات مكاننا قريبًا في تلك الأدوار. وعندما يحدث هذا، ستنخفض أجور أولئك الذين لا يستطيعون المُنافسة على الوظائف المُتبقِّية ذات المهارات العالية إلى ما تحت مُستوى خط الفقر. يصُوغ لاري سامرز هذا الأمر قائلًا: «قد يصل الأمر، إذا وضعنا احتمالات وجود بدائل أمام أرباب الأعمال لاستبدال العمالة بالروبوتات، إلى أنَّ بعض قطاعات الوظائف لن تستطيع حتى أن تكسب قُوت يومها لتعيش حدَّ الكفاف».26 وهذا بالضَّبط ما حدث للأحصنة؛ فقد صارت وسائل المواصلات الميكانيكية أقلَّ تكلفةً إذا ما قُورنت بتكلفة رعاية أحد الأحصنة، لذلك أصبحت الأحصنة طعامًا للقطط والكلاب. وعندما يُواجَه البشر بالمقابل الاجتماعي والاقتصادي لأن يكونوا طعامًا للحيوانات الأليفة، فإنهم سيكونون ساخطين أشدَّ السخط على حكوماتهم.
ونظرًا لاحتمالية مواجهتها لسخط مواطنيها، فإن الحكومات حول العالم بدأت بالفعل في الانتباه إلى هذه المُشكلة. ومعظمها قد أدرك الآن أن فكرة إعادة تأهيل الجميع ليكونوا علماء بيانات أو مهندسي روبوتات لن تُجدي نفعًا؛ فالعالم قد يحتاج إلى خمسة أو عشرة ملايين من هؤلاء، لا جميع هؤلاء المليار موظَّفٍ الذين على وشك خسارة وظائفهم. إن مجال علوم البيانات ما هو إلا قارب نجاةٍ صغير لن يحمل جميع رُكاب الباخرة العملاقة الغارقة.27

يُعدُّ البعض «خُططًا انتقالية»، ولكن السؤال هو: انتقالية إلى ماذا؟ نحن نحتاج أن يكون لدَينا وجهة واضحة لنضع خُطَّة انتقالية؛ أي نحتاج صورة واضحةً لاقتصادٍ مستقبلي مقبول تُنجز فيه الآلات مُعظم ما نُسمِّيه اليوم عملًا.

أحد صور الاقتصاد المُستقبلي التي تظهر على الساحة في تسارُعٍ هي حيث يكون هناك طائفة أقل كثيرًا من الناس يعملون في وظائف لأنَّ العمل ليس شيئًا ضروريًّا. وقد تخيَّل كينز هذه الصورة المُستقبلية في مقاله «الخيارات الاقتصادية لأحفادنا». ووصف موجة البطالة العارمة التي ابتُليت بها بريطانيا في عام ١٩٣٠ على أنَّها «موجة مؤقَّتة من عدم التَّوازن» تسبَّبت فيها «زيادة الكفاءة التقنية» التي حدثت «بوتيرةٍ أسرع ممَّا يُمكننا التعامل مع مشكلة استيعاب اليد العاملة». لكنَّه، رُغم ذلك، لم يتخيَّل أن على المدى البعيد، بعد قرنٍ من الزمان مليء بالتَّطورات التقنية، ستكون هناك عودة لاستيعاب جميع الأيدي العاملة في سوق العمل، فقال:

وهكذا، ولأول مرةٍ منذ أن خُلق الإنسان، سيُواجه مشكلته الحقيقية والدائمة، وهي: كيف سيستفيد بعد تحرُّره من وطأة المشاغل الاقتصادية المُلحَّة، وكيف سيستمتع بالراحة التي سيكون العلمُ وأموال الفوائد المُركَّبة قد وفَّراها له ليعيش حياةً رشيدةً ومتناغمةً وينعم بالعافية.

مثل هذا المُستقبل يتطلَّب تغييرًا جذريًّا في نظامنا الاقتصادي؛ لأنَّ في الكثير من دول العالم، أولئك الذين لا يعملون يُواجهون الفقر أو العوز. ولذلك، ستجد أنصار رؤية كينز المُعاصرون عادةً ما يدعمون توفير شكلٍ ما من أشكال «الدَّخل الأساسي العام». إن هذا الدخل، المُموَّل من ضرائب القيمة المُضافة أو ضرائب عائد رأس المال، سيوفِّر مستوًى معيشيًّا مقبولًا لجميع البالغين بصرف النَّظر عن ظروفهم. أما الذين يطمحون للعيش في مُستوًى أفضل، فيمكنهم العمل من غير أن يفقدوا هذا الدخل الأساسي، وأولئك الراضُون بمُستوى معيشتهم، يمكنهم أن يفعلوا ما يحلو لهم في وقتهم. ورُبَّما من المُدهش أن فكرة الدَّخل الأساسي العام مدعومة من جميع الأطياف السياسية؛ بدايةً من معهد آدم سميث28 وحتى حزب الخضر.29
بالنسبة إلى البعض، الدخل الأساسي العام يُمثِّل نُسخةً أرضيةً من الجنَّة.30 بينما تراه طائفة أخرى من الناس أنَّه يعني اعترافًا بالفشل؛ فهم يرون أنَّ معظم الناس بذلك لن يملكوا أي قيمةٍ اقتصاديةٍ ليُساهموا بها في المُجتمع؛ فهم سيُطعمون ويُسكَّنُون في المنازل (غالبًا على يد الآلات)، وفيما عدا ذلك، سيُتركُون إلى إرادتهم الحُرَّة. والحقيقية، كما هي دائمًا، في مكانٍ ما بين الرأيين وتعتمد اعتمادًا كبيرًا على رؤية المرء لطبيعة النَّفس الإنسانية. لقد فرَّق كينز في مقاله بين أولئك الذين يُكافحون ويسعون وبين أولئك الذين يتمتَّعون؛ أولئك «الطَّموحين» الذين يسعون بُكلِّ جُهدهم وراء متع مستقبلية، وبين أولئك «المُبتهجين» الذين «يستطيعون الاستمتاع المباشر بالأشياء». ومُقترح الدَّخل الأساسي العام يفترض أنَّ السَّواد الأعظم من الناس سيكونون من زُمرة الأشخاص المُبتهجين.

يرى كينز أنَّ السَّعي هو أحد «عادات وغرائز البشر والتي قد غُرست بداخلهم جيلًا بعد الآخر منذ أمدٍ بعيد» وليست «قيمةً حقيقةً من قيم الحياة». كما يتنبأ أنَّ هذه الغريزة ستندثر شيئًا فشيئًا حتى تختفي. وخلافًا لوجهة النَّظر هذه، قد يرى أحدهم أنَّ السَّعي هو جوهر كون الفرد إنسانًا حقيقيًّا. وبدلًا من رؤية السعي والاستمتاع على أنَّهُما شيئان مُنفصلان لا يلتقيان، فإنَّهُما غالبًا ما يُلازم أحدهما الآخر؛ فالمُتعة الحقيقية والإحساس الدائم بروعة الإنجاز يتأتَّيان من وجود غايةٍ ما وتحقيقها (أو على الأقل مُحاولة تحقيقها)، غالبًا في مواجهة الصِّعاب والعقبات، وليس من الاستهلاك السَّلبي للمُتع المُباشرة؛ فهناك فرق بين تسلُّق جبل إيفرست وبين أن تُنقل إلى قمَّته بطائرةٍ مروحية.

والعلاقة بين السعي والاستمتاع هي موضوع محوري لفَهمنا كيفية صياغة مُستقبلٍ جيدٍ. ربما ستتساءل الأجيال القادمة عن سبب قلقنا حول ذلك الشيء العقيم الذي بلا فائدة الذي يُسمَّى «العمل». وتحسُّبًا لأن يكون هذا التَّغيُّر في الرؤى سيُحدُث على نحوٍ بطيءٍ، دعونا إذن نتفكَّر في التبِعات الاقتصادية لوجهة النَّظر التي ترى أنَّ أحوال مُعظم الناس ستكون جيدةً إذا كان لهم دور نافع ليقوموا به، حتى لو كانت مُعظم البضائع والخدمات ستُنتج على يد الروبوتات بإشراف بشري يكاد لا يُذكَر. حينها، لا محالة أنَّ معظم الناس سينخرطُون في تقديم الخدمات التفاعلية التي يُمكن للبشر فقط تقديمها، أو بالأحرى، تلك التي «نُفضِّل» أن يُقدِّمها البشر. هذا يعني أننا إذا كُنا من الآن فصاعدًا لن نستطيع أن نُساهم بأي عملٍ بدنيٍّ أو ذهنيٍّ روتيني، فأقل القليل أن نُساهم بإنسانيَّتنا. وحينها سنحتاج أن نبرع في أن نكون بشرًا.31
والمهن الحالية التي من هذا النَّوع تشمل المُعالِجين النَّفسيين، ومُوجهي المديرين التنفيذيين والمُعلِّمين والمُستشارين والمساعدين وجُلساء الأطفال وكبار السِّن. وعبارة «مهن الرِّعاية» غالبًا ما تُستخدَم في هذا السِّياق، لكنَّي أراها عبارةً مُضلِّلة؛ فتلك العبارة لها بالتأكيد وقْعٌ إيجابي في أذُن مُقدِّمي الرِّعاية، بينما لها أثر سلبيُّ يُخبرنا عن مدى اعتمادية وعجز مُتلقِّي تلك الرعاية. لكن لنعُد إلى مقال كينز مرةً أخرى ونتفكَّر في تلك المُلاحظة:

إن الذين استطاعوا البقاء على قيد الحياة وصقل مهاراتهم حتى تصل إلى حدِّ الكمال في فنَّ الحياة، ولا يشترون بأنفُسهم سُبُل الحياة الوضيعة هم الذين سينعمُون بالحياة الرَّغدة حين تأتي.

جميعنا نحتاج إلى مساعدة في تعلُّم «فن الحياة». هذه ليست مسألة اعتمادية، بل مسألة نُمُو. إن القدرة على إلهام الآخرين وإكسابهم حس التَّذوق والإبداع — في الفن أو الموسيقى أو الأدب أو المُحادثة مع الغير أو البستنة أو الفنون المعمارية أو الطعام أو الشَّراب أو ألعاب الفيديو — سنحتاج إليها على الأرجح أكثر من أي وقتٍ مضى.

المسألة التالية هي توزيع الدَّخل. في أغلب البلدان، هذا الأمر ينحرف إلى طريقٍ خاطئ مُنذ عدة عُقودٍ. إنها مسألة معقَّدة، ولكنَّ هناك شيئًا واحدًا واضحًا كالشَّمس؛ وهو أن الدَّخل المُرتفع والحالة الاجتماعية العالية غالبًا ما يتأتَّيان من تقديم قيمةٍ مضافة عالية. ولنضرب مثالًا؛ مهنة مجال رعاية الأطفال تُربط بالدَّخل المُنخفض والحالة الاجتماعية المُتدنِّية. وهذا راجع في بعضٍ منه كنتيجةٍ لجهلنا بأُسُس تلك المهنة وكيفية أدائها. بعض المُشتغِلين بهذا يُؤدُّونها غريزيًّا على نحوٍ جيد، لكنَّ الأغلبية ليسوا كذلك. قارن هذا مثلًا بمهنة جراحة العظام. ببساطةٍ، لن نذهب نحن إلى مُراهقٍ ملول يحتاج إلى المال ثمَّ نختاره للعمل كجرَّاح عظامٍ لقاء خمسة دولاراتٍ في الساعة إلى جانب السَّماح له بحشو معدته بما يُريد من ثلاجة المنزل. لقد استثمرنا قُرونًا من البحث لمعرفة جسد الإنسان وكيفية علاج أجزائه حين يحدث بها عطب، وجرَّاح العظام عليه أن يخضع لسنواتٍ من التدريب ليحصُل على كل هذه المعرفة والمهارات المطلوبة لتطبيقها. ولهذا، فإنَّ جرَّاحي العظام يحصلون على دخلٍ مُرتفعٍ ويتمتَّعون بمكانةٍ اجتماعيةٍ راقية. وهم لا يحصلون على دخلٍ مُرتفع فقط لأنَّ لديهم الكثير من المعرفة ويخضعون للكثير من التدريب، بل أيضًا لأنَّ جميع تلك المعرفة والتدريب تُؤتي ثمارها. فهي تُمكِّنُهم من المُساهمة بقيمةٍ كبيرة في حياة الآخرين، خصوصًا ذوي العظام المكسورة.

لسوء الحظ، معرفتنا العلمية بآلية عمل الدِّماغ ضعيفة على نحوٍ صادم، ومعرفتنا العلمية بأمورٍ مثل السَّعادة والإنجاز أشدُّ ضعفًا. نحن ببساطةٍ لا نعرف كيف نُضيف قيمةً في حياة بعضنا لبعض على نحوٍ مُطَّردٍ وقابل للتوقُّع. صحيح أننا حقَّقنا نجاحًا مقبولًا في فهم بعض الاضطرابات النفسية، لكنَّنا ما نزال نُحارب منذ فترةٍ طويلة في معركةٍ تعليميةٍ حول شيءٍ بسيطٍ كتعليم القراءة للأطفال.32 إننا نحتاج إلى إعادة النظر جذريًّا في نظامنا التعليمي ومؤسَّساتنا العلميَّة لنضع جُلَّ تركيزنا على الإنسان بدلًا من التركيز على العالم المادي. (يرى جوزيف آون، رئيس جامعة نورث إيسترن، أنَّ الجامعات يجب أن تُدرِّس وتدرُس «علم الطبيعة البشرية».)33 قد يبدو من الغريب القول إن السعادة يجب أن تكون علمًا هندسيًّا، لكن يبدو أنَّه لا مناص من هذا. إن مثل هذا العلم سيُبنى على العلوم الأساسية — أي فهم أفضل لآلية عمل الدِّماغ البشري على المستويين المعرفي والعاطفي — وسيُؤهِّل العديد من المُمارسين في مجالاتٍ تتنوَّع ما بين مُهندسي الحياة، أولئك الذين سيُساعدون الأفراد على التَّخطيط لمسارات حياتهم بأكملها؛ والخبراء المهنيِّن في مجالاتٍ كمجال تعزيز غريزة الفُضُول وحب الاستطلاع، والتَّكيُّف الشخصي والصمود أمام الصُّعوبات. وإذا كانت تلك المهن ستُبنى على أُسُسٍ علميةٍ سليمة، فعليها أن تكون منطقيةً وعقلانيةً كمهنة المُهندس الذي يُصمِّم جسرًا أو جراح العظام في وقتنا الحاضر.

إعادة النظر في مؤسستنا التعليمية والبحثية، لتوفير تلك العلوم الأساسية ولتحويلها إلى برامج تدريبية وتخريج أفراد مؤهَّلين، ستستغرق عُقودًا من الزمان، لذلك أظنُّها فكرةً جيدةً أن نبدأ الآن، ويا لها من حسرةٍ أنَّنا لم نبدأ منذ زمنٍ بعيد. والنتيجة النهائية (إن نجح الأمر) ستكون عالمًا يستحقُّ أن نحيا فيه. أما بدون عملية إعادة النظر هذه، فإننا نُخاطر بمستوًى غير مُحتمل من الاضطراب الاجتماعي والاقتصادي.

(٤) الاستيلاء على أدوار أخرى للبشر

علينا أن نُفكِّر جيدًا قبل أن نسمح للآلات بأن تضطلع بأدوار تشمل خدماتٍ تفاعلية بين الأفراد. وإذا جاز القول إن إنسانيتنا هي نقطة قوتنا الرئيسية في التعامُل مع غيرنا من البشر، حينها سيبدو صُنعُ آلاتٍ تُحاكي البشر فكرةً سيئةً. لُحسن حظِّنا، نحن البشر لدَينا ميزة واضحة نتفوَّق بها على الآلات في أمر معرفة ما يشعر به غيرنا من البشر وكيف سيتصرَّفون. إن جميع أفراد الجنس البشري تقريبًا يعرفون ماهيَّة شعور أن يضرب المرء إبهامه بمطرقة، أو يُحبَّ حبًّا غير مُتبادل.

وعدم استغلال هذه الميزة البشرية الفطرية وإبطالها، هو عيب بشري فطري؛ فنحن ميالون إلى أن نُخدع بالمظاهر، وخصوصًا المظاهر البشرية. وقد حذَّر آلان تورينج من صُنع روبوتات تُشبه البشر، فقال:34

أرجو بل وأؤمن أنَّنا بلا شكٍّ لن نبذُل جهدًا في صُنع آلاتٍ تحمل أكثر صفات البشر غير الفكرية تميُّزًا مثل أن يكون لها أجساد كأجساد البشر؛ فأرى من وجهة نظري أن مثل هذا الصَّنيع إنما هو صنيع عقيم ونتائجه ستكون لها نفس الجودة الرديئة التي لصُنع ورودٍ صناعية.

للأسف، ذهب تحذير آلان أدراج الرياح ولم نُعره أي اهتمام. فالعديد من المجموعات البحثية قد أنتجت روبوتات على هيئةٍ بشريةٍ واقعيةٍ على نحوٍ مُخيف، كأنَّهم ينبضون بالحياة كما هو مُوضَّح في الشكل ٤-٤.
إذا نظرنا إلى الروبوتات كأدواتٍ بحثيةٍ، فقد نستخلص منهم رُؤًى حول كيفية تفسير البشر لسلوك الروبوتات وتواصلهم. أما إذا نظرنا إليهم كنماذج أولية لمُنتجاتٍ تجارية مُستقبلية، فإنهم سيُمثِّلون نوعًا من التضليل والكذب. فهُم يتجنَّبون وعينا المُدرك ويُخاطبون عواطفنا مُباشرةً، وُربَّما يُقنعُوننا بأنَّهم قد وُهبوا ذكاءً حقيقيًّا. تخيَّل مثلًا مدى سُهولة أن تُغلق وتُعيد تشغيل روبوت على شكل صندوقٍ رمادي جاثم لأنَّ به مشكلة ما (حتى ولو كان يملأ الدنيا صياحًا ويُخبُرك أنَّه لا يُريد أن يُطفأ)، وما هي صعوبة فعل نفس الشيء مع روبوتات مثل «جيا جيا» أو «جيمينويد دي كيه». تخيَّل أيضًا كم سيكون مُربكًا وربما يُسبِّب اضطراباتٍ نفسيةً للأطفال والرُّضَّع إذا وضعوا تحت رعاية روبوتات تبدو مثل البشر، مثل آبائهم، لكنَّهم ليسوا كذلك؛ ويُظهرون العطف والرِّعاية، مثل آبائهم، لكنَّهم في الحقيقة ليس لديهم مشاعر أصلًا.
fig10
شكل ٤-٤: (على اليمين) «جيا جيا»، الروبوت الذي صُنع في جامعة العلوم والتِّقنية الصينية. (على اليسار) «جيمينويد دي كيه»، الروبوت الذي من تصميم هيروشي إشيجورو من جامعة أوساكا اليابانية، والذي صُمِّم لمُحاكاة وجه هينريك شيرفا من جامعة آلبورج الدانمركية.

لا فائدة حقيقية تُرجى من صُنع روبوتات على هيئةٍ بشريةٍ إلا فيما عدا القُدرة الأساسية على توصيل المعلومات غير اللفظية عبر تعبيرات الوجه وحركات تقاسيمه؛ تلك التي استطاعت حتى الشخصية الكارتونية «بجز بني» أداءها بسهولةٍ ويُسر. وهناك أيضًا أسباب وجيهه وعمليَّة تدفعُنا ألا نضع الروبوتات في قالبٍ بشري؛ مثلًا، هيئتنا نحن البشر الواقفة على قدمَين أقل ثباتًا إذا ما قُورنت بالمشي على أربع. إن القطط والكلاب والأحصنة تندمج مع حياتنا البشرية على نحوٍ جيدٍ وهيئتها البدنيَّة دليل واضح جدًّا على طريقة تصرُّفها المتوقعة. (تخيَّل أنَّ حصانًا بدأ يتصرَّف فجأة ككلب!) وهذا الأمر يجب أن ينطبق على الروبوتات أيضًا. رُبَّما هيئة لها أربع أرجلٍ وذراعان وتركيب جسدي على هيئة كائن القنطور الأسطوري سيكون نموذجًا قياسيًّا مقبولًا. أما أن تُحاكي الروبوتات البشر في جميع التَّفاصيل، فهو يُشبه صُنع سيارة فيراري سُرعتها القُصوى ٥ أميالٍ في الساعة، أو مُثلَّجاتٍ بطعم التُّوت، لكنَّها في الحقيقة مصنوعة من معجون شرائح الكبدة المصبوغ بلون البنجر الأحمر.

تلك الهيئة البشرية التي لبعض الروبوتات قد تسبَّبت بالفعل في بعض الارتباك السياسي والعاطفي. في الخامس والعشرين من أكتوبر ٢٠١٧، منحت المملكة العربية السُّعودية الجنسية السعودية للروبوت «صوفيا»؛ وهو روبوت على هيئةٍ بشريةٍ قد وُصف بأنَّه لا يعدو كونه «نظام دردشة لديه وجه»،35 بل أسوأ.36 ربما كانت هذه الواقعة حركة استعراضية في مجال العلاقات العامة، لكن أن يُصدر مقترح من لجنة الشئون القانونية بالبرلمان الأوروبي، لهُو إذن أمر جاد وخطير.37 فهذا المُقترح كان يُوصي بالآتي:

إعطاء صفةٍ قانونيةٍ خاصة للروبوتات على المدى الطويل، حتى يكون هناك على الأقل لأكثر الروبوتات تطورًا واستقلاليةً صفة الأشخاص الإلكترونيِّين حتى يكونوا مسئولين عن أي ضررٍ قد يتسبَّبون به.

بعبارةٍ أخرى، سيُصبح «الروبوت» مسئولًا أمام القانون عن أيِّ ضررٍ يُوقعُه، بصرف النَّظر عن صاحبه أو مُصنِّعه. وهذا يُوحي بأنَّ الروبوتات سيكون لهم أصول مالية وسيكونون عُرضة للعقوبات إن لم يلتزموا بالقوانين. إن هذا الكلام مُجرَّد هُراءٍ لا معنى له. مثلًا، إذا كُنا سنزُجُّ بأحد الروبوتات في السِّجن لعدم سداده المُستحقات المالية، فما الذي سيضيره إذا سُجن؟

fig11
شكل ٤-٥: ماكس (الذي يقوم بدوره المُمثِّل مات دايمن) وهو يُقابل ضابط الإفراج المشروط في فيلم «إليزيام».
بالإضافة إلى هذه المنزلة غير المُبرَّرة والغريبة التي تُرفع إليها الروبوتات، فإنَّ ثمة خطرًا مُحدقًا من زيادة استخدام الآلات في إصدار القرارات التي تمسُّ حياة الناس، لأنَّها ستُؤدِّي إلى الحطِّ من منزلة وكرامة البشر. وهذا الاحتمال قد صُوِّر بإتقانٍ في مشهدٍ من مشاهد أحد أفلام الخيال العلمي يُسمَّى «إليزيام»، حيثُ يقف المُمثِّل مات دايمن في شخصية ماكس ليترافع عن نفسه أمام «ضابط الإفراج المشروط» (انظر الشكل ٤-٥) ويشرح له لماذا يرى أن تمديد فترة عقوبته غير مُبرَّر. ولا حاجة للقول أنَّ سعي ماكس قد خاب، بل إن ضابط الإفراج المشروط قد وبَّخه لعدم إظهاره سلوكًا محترمًا.

يُمكن للمرء أن ينظر إلى هذا الاعتداء على الكرامة الإنسانية بطريقتَين. الطريقة الأولى هي المُباشرة؛ وهي أنَّ بإعطاء الآلات سُلطةً على البشر، فنحن نُنزل من أنفسنا كجنسٍ بشري إلى مرتبةٍ أقل ونفقد حق المشاركة في اتخاذ القرارات التي تمسُّ حياتنا. (وإعطاء الآلات السُّلطة لقتل البشر، كما ناقشنا في نقطةٍ سابقةٍ في هذا الفصل، هو مثال أكثر تطرفًا لهذا.) أما الطريقة الثانية فهي طريقة غير مباشرةٍ؛ فحتى وإن كنت تُؤمن أنَّ «الآلات» ليست هي من تتَّخذ القرارات، بل «الأشخاص الذين صمَّمُوا تلك الآلات وكلَّفوها بمهامها»، فحقيقة أنَّ هؤلاء المُصمِّمين البشريِّين وما فعلوه من تجاهلٍ لأهمية النَّظر إلى الظروف الشَّخصية لكل فردٍ على حدةٍ في تلك الحالات، تُشير إلى أنَّهم قد أعطوا قيمةً ضئيلةً لحياة الآخرين. وقد يكون هذا علامةً على بداية انشقاقٍ عظيمٍ بين النُّخبة الذين يُخدمون بيد البشر، وبين بقيَّة الطبقات المُتدنية الذين تخدمهم الآلات وتتحكَّم فيهم.

في الاتحاد الأوروبي، تحظُر المادة رقم ٢٢ في النظام العام لحماية البيانات لعام ٢٠١٨ بوضوحٍ إعطاء السُّلطة للآلات في الحالات التالية:

لصاحب البيانات الحق في ألا يخضع لقرارٍ مبني فقط على المُعالجة الآلية؛ بما في ذلك التنميط، الذي يتَّرتَّب عليه آثار قانونية تتعلق به أو تؤثر عليه على نحو ملحوظ.

رغم أنَّ هذا يبدو رائعًا في منطقه، فإنَّنا لا نعرف بعد (على الأقل في وقت كتابة هذا الفصل) مقدار الأثر الذي سيتركه عمليًّا. فغالبًا ما يكون من الأسهل والأسرع والأرخص أن ندع الآلات تتَّخذ القرارات.

وأحد الأسباب التي تدعونا للقلق من القرارات المُؤتمتة هو احتمالية ما يُطلق عليه «انحياز الخوارزميات» — وهو ميل خوارزميات تعلُّم الآلة إلى اتِّخاذ قراراتٍ مُنحازةٍ على نحوٍ غير سليم في أمورٍ مثل القروض والتَّسكين والوظائف والتأمين وإطلاق السَّراح المشروط والعقوبات والتسجيل الجامعي وهلُمَّ جرًّا. والاستناد الصَّريح إلى معايير مثل العرق في هذه القرارات مُجرَّم منذ عقود في العديد من الدول، ومُحظور بنصِّ المادة رقم ٩ من النظام العام لحماية البيانات الخاص بالاتحاد الأوروبي في عددٍ كبيرٍ من التطبيقات. وهذا لا يعني بالطَّبع أنَّ باستبعاد العرق من البيانات، سنحصل بالضرورة على قراراتٍ غير مُنحازةٍ عرقيًّا. على سبيل المثال، بداية من ثلاثينيات القرن الماضي، أقرَّت الحكومة الأمريكية تطبيق مُمارسة التمييز ضدَّ بعض المناطق، والتي تسبَّبت في حرمان بعض الأرقام البريدية من إقراض الرهن العقاري وغيره من أنواع الاستثمار المُختلفة، مما أدي إلى انخفاضٍ في قيمة العقارات. ثمَّ اكتشفنا فجأة أنَّ تلك الأرقام البريدية كان أغلبها لأمريكيين من أصولٍ أفريقية.

ولمنع هذه الممارسة، يُستخدَم الآن أول ثلاثة أرقامٍ من الخمسة الأرقام المكوِّنة للرقم البريدي، لاتِّخاذ القرارات الائتمانية. بالإضافة إلى ذلك، يجب أن تكون عملية اتِّخاذ القرار قابلةً للمُراجَعة للتأكد من عدم وجود أي انحيازاتٍ أخرى «غير مقصودةٍ». يقال عادة إن النظام العام لحماية البيانات الخاص بالاتحاد الأوروبي يُعطي «الحق في التَّفسير» لأي قرارٍ مؤتمت،38 لكنَّ صياغة المادة رقم ١٤ تتطلَّب فقط ما يلي:

معلومات مفيدة عن المنطق وراء القرار، وكذلك الأهمية والعواقب المُتوخَّاة من مثل هذه المعالجة لصاحب البيانات.

في الوقت الحاضر، نحن لا نعرف كيف ستطبق المحاكم هذه العبارة وتُدخلها حيِّز التنفيذ. من المُحتمل أن المُستهلك البائس سيُعطى فقط وصفًا لخوارزمية التَّعلُّم المُتعمِّق المُستخدمة في تدريب المُصنِّف الآلي الذي اتَّخذ القرار.

في عصرنا الحالي، تكمُن الأسباب المُحتملة لانحياز الخوارزميات في البيانات نفسها وليس في الانتهاكات المُتعمَّدة من جانب الشركات. في عام ٢٠١٥، أشارت مجلة «جلامور» إلى اكتشافٍ مُخيِّبٍ للآمال؛ وهو كالتالي: «أول صورةٍ لأنثى عند استخدام خدمة جوجل للبحث في الصور بكلمة CEO تظهر في الصَّف «الثاني عشر» وتُظهر صورةً لدُمية باربي.» (في عام ٢٠١٨، ظهرت بعض صور النساء في نتائج البحث، لكنَّ أغلبهنَّ كُنَّ صورًا عامة جاهزة لسيداتٍ في شكل مديرة تنفيذية، ولكن لم تكن هناك صور حقيقية. في عام ٢٠١٩، كانت النتائج أفضل نوعًا ما.) لم يكن هذا نتيجةً لانحيازٍ مُتعمَّد إلى جنسٍ بعينه في خوارزميات ترتيب الصور في خدمة جوجل للبحث في الصور، لكنَّه كان انحيازًا مُسبقًا في الثقافة التي كانت مصدرًا للبيانات؛ فهناك عدد أكبر بكثيرٍ من المديرين التَّنفيذيِّين من الذكور مقارنةً بالإناث، وعندما يُريد الناس أن يصفوا نموذجًا للمدير التَّنفيذي في صورةٍ ما، فإنهم يختارون دائمًا صورةً لأحد الذكور. وحقيقة أنَّ الانحياز موجود في البيانات في المقام الأول لا يعني بالتأكيد أنَّه لا يُوجَد إلزام لاتِّخاذ بعض الإجراءات لتصحيح المُشكلة.
هناك العديد من الأسباب الأخرى التي يغلب عليها الطابع التِّقني التي قد تدفع بالتَّطبيق البسيط إلى طرق تعلُّم الآلة بأن يُخرج نتائج مُنحازة. على سبيل المثال، الأقلية تُعرَّفُ على أنَّها طائفة لها تمثيل قليل في عينات بيانات سُكان دولةٍ ما؛ ومن ثمَّ، فإن توقُّعات أن يكون الأفراد من الأقليات قد تكون أقلَّ دقَّةً إذا كانت تلك التوقُّعات مُستندةً على نحوٍ كبير على بياناتٍ من أفراد آخرين من نفس المجموعة. ولكن لحُسن الحظ، بُذل قدر كبير من الجهد لحلِّ مُشكلة إزالة الانحياز غير المُتعمَّد من جانب خوارزميات تعلُّم الآلة، وهناك الآن طرُق جديدة لإخراج نتائج غير مُنحازة طبقًا للعديد من التَّعريفات المعقولة والمُستحسنة لمفهوم الإنصاف.39 والتَّحليل الرياضي لتلك التعريفات لمفهوم الإنصاف يُظهر أنَّها لا يُمكن تحقيقها جميعًا في آنٍ واحد، وأنَّ عند فرض تحقيقها في آنٍ واحد، تتسبَّب في خفض دقة التَّوقعات، وفي حالة اتخاذ قراراتٍ بشأن الإقراض، في ربحٍ أقلَّ للمُقرض. وهذا أمر ربما يكون محبطًا، لكن على الأقل يُوضِّح لنا التَّنازلات اللازمة لتفادي انحياز البيانات. وآمُل أن ينتشر الوعي بهذه الطرق وهذه المُشكلة سريعًا بين صانعي السياسات والمُمارسين والمُستخدِمين.

إذا كان إعطاء الآلات سلطة على أفرادٍ من الجنس البشري قد يُخلِّف بعض المشاكل أحيانًا، فما بالك بإعطائها السُّلطة على جماعاتٍ من البشر؟ بعبارة أخرى، أيجب علينا أن نُعطي للآلات أدوارًا سياسية وإدارية؟ في الوقت الحالي قد يكون هذا التَّصور بعيدًا جدًّا؛ فالآلات لا تستطيع أن تنخرط في محادثاتٍ طويلة وتفتقِر إلى فهم أبسط العوامل المتعلقة باتِّخاذ القرارات على نطاقٍ واسعٍ؛ مثل: هل ترفع الحد الأدنى للأجور أم لا؟ أو هل ترفض عرض استحواذٍ من شركةٍ أخرى؟ لكن الاتجاه العام واضح كالشمس؛ فالآلات تتخذ قراراتٍ على مستوياتٍ أعلى من التَّحكُّم في العديد من المجالات. لنأخذ شركات الطيران كمثال. في البداية، بدأت أجهزة الكمبيوتر في المساعدة في تنظيم جداول الرحلات. لم يمضِ الكثير من الوقت حتى تولَّت عملية توزيع طواقم الطيران، وحجز المقاعد، وإدارة عمليات الصيانة الدورية. لاحقًا، جرى توصيلها بشبكات المعلومات العالمية لتُوفِّر لمديري شركات الطيران تقارير فورية عن الحالة حتى يستطيعوا التعامُل مع أي مشكلةٍ على نحو فعَّال. أما الآن، فهي تتولَّى مهمة إدارة المشكلات، من إعادة توجيه الطائرات، وإعادة جدولة مواعيد الطواقم، وإعادة حجز المقاعد للمُسافرين ومُراجعة جداول الصيانة.

كلُّ هذا يُعدُّ أمرًا جيدًا من وجهة نظرٍ اقتصاديةٍ لشركات الطيران، ولتجربة المُسافرين. لكن السُّؤال هنا هو ما إذا كانت النظم الحاسوبية ما تزال أدواتٍ في يد البشر، أم أنَّ البشر أصبحوا أدواتٍ في يد النظم الحاسوبية يُغذُّونها بالبيانات ويُصلحون الأخطاء عند الضرورة، لكنهم صاروا لا يفهمون كيف يعمل الأمر بالكامل على أيِّ مستوًى من المستويات. والإجابة تُصبح واضحةً عندما تتعطَّل تلك النُّظُم ونعيش في فوضى عالمية حتى تعود تلك النظم إلى العمل مرة أخرى. مثلًا، في ٣ أبريل ٢٠١٨، تسبَّب انهيارٌ مؤقت في النظام في تأخيرٍ كبير أو إلغاءٍ لحوالي ١٥ ألف رحلة طيرانٍ في أوروبا.40 وعندما تسبَّبت خوارزميات التداول في الانهيار المُفاجئ عام ٢٠١٠ لبورصة نيويورك، ومحت ١ تريليون دولار في دقائق معدودة، كان الحل الوحيد هو غلق التَّداول. ما حدث حينها لا يزال إلى يومنا هذا غير مفهومٍ بالكامل.

قبل أن تُوجَد أي تقنيةٍ على الأرض، عاش البشر كغيرهم من الحيوانات عيشة الكفاف. لقد وقفنا على أرجلنا، إن جاز التعبير. وبدأ فجر التقنية يبزُغ شيئًا فشيئًا اعتمادًا على هرم من الآلات، وبدأنا نترك بصمتنا كأفرادٍ وكجنسٍ بشري. هناك العديد من الطرائق لتصميم العلاقة بين البشر والآلات؛ فإذا ما صمَّمناها ليظلَّ البشر على قدرٍ كافٍ من الفهم والسُّلطة والاستقلالية، فإن الأجزاء التقنية من هذا النظام يمكن أن تزيد من قدرات البشر زيادةً عظيمةً، مما سيجعل كل واحدٍ منا يقف على قمَّة هرمٍ من المهارات والقدرات، كأنَّه نصف إله إن جاز القول. لكن لننظر بعين الاعتبار إلى العاملة في مستودع متجرٍ إلكتروني. سنرى أنَّها أكثر إنتاجيةً من أسلافها؛ لأنَّ لديها جيشًا صغيرًا من الروبوتات الذين يُحضرون لها حاويات التَّخزين لتلتقط المنتجات منها، لكنها في الوقت نفسه، تُعدُّ جزءًا من نظامٍ أكبر تتحكَّم فيه خوارزميات ذكية تُقرِّر أين يجب أن تقف تلك العاملة وما هي المنتجات التي عليها أن تلتقطها وتُرسلها للشَّحن. إنها في هذه الحالة تُعتبر نصف مدفونةٍ في ذاك الهرم، وليست واقفةً على قمَّته. وما هي إلا مسألة وقتٍ حتى تملأ الرِّمال ما تبقى من مساحةٍ في الهرم ويختفي دورها للأبد.

جميع الحقوق محفوظة لمؤسسة هنداوي © ٢٠٢٢