الفصل السابع

التفرد

أُثيرت ضجة حول الذكاء الاصطناعي منذ ظهوره. كذلك أثارت التوقعات الحماسية للغاية من (بعض) العاملين في الذكاء الاصطناعي حماسة الصحفيين ومقدمي البرامج الثقافية، كما أثارت رعبهم في بعض الأحيان. واليوم، المثال الأساسي هو التفرد؛ ويعني وقتًا معينًا من الزمن تصبح الآلة فيه أذكى من الإنسان.

في البداية، قيل إن الذكاء الاصطناعي سيبلغ مستوى ذكاء الإنسان. (ويُفترض ضمنًا أنه سيكون ذكاءً حقيقيًّا؛ انظر الفصل السادس). لم يمضِ وقتٌ طويل حتى تحوَّل مصطلح الذكاء الاصطناعي العام إلى الذكاء الاصطناعي الخارق. ستتمتع الأنظمة بذكاء يمكِّنها من نسخ نفسها؛ ومن ثَم يتفوق عددها على عدد البشر، وأن تحسن نفسها؛ ومن ثَم يتفوق ذكاؤها على ذكاء الإنسان. عندئذٍ، ستُحَل أهم المسائل وتُتخذ أهم القرارات بواسطة أجهزة الكمبيوتر.

هذه الفكرة مثيرة للجدل إلى حد كبير. يختلف الناس بشأن هل يمكن أن يحدث هذا، وهل سيحدث أم لا، ومتى قد يحدث، وهل سيكون شيئًا جيدًا أم سيئًا.

يقول المؤمنون بالتفرد إن التقدم المحرز في مجال الذكاء الاصطناعي يجعل التفرد أمرًا لا مفر منه. رحَّب البعض بهذا. إنهم يتوقعون حل مشكلات البشرية. الحروب والأمراض والمجاعات والضجر وحتى القتل … ستنتهي كل تلك المشكلات. يتوقَّع آخَرون نهاية البشرية، أو على أي حال ستنتهي الحياة المدنية التي نعرفها. أثار ستيفين هوكينج (ومعه ستيوارت راسل، المؤلف المشارك في كتاب رائد عن الذكاء الاصطناعي) موجةً عالمية في مايو ٢٠١٤ حينما قال: إن تجاهل تهديدات الذكاء الاصطناعي «قد تكون أسوأ خطأ لنا على الإطلاق».

وعلى النقيض من ذلك، لا يتوقع المشكِّكون في التفرد أن يحدث التفرد، وبالتأكيد ليس في المستقبل القريب. يقولون إن الذكاء الاصطناعي يثير كثيرًا من القلاقل. لكنهم لا يرَون أي تهديد وجودي.

رُسل التفرد

في الآونة الأخيرة، شاعت فكرة التحول من الذكاء الاصطناعي العام إلى الذكاء الاصطناعي الخارق في وسائل الإعلام، ولكنها بدأت في منتصف القرن العشرين. المبادرون الأساسيون هم جاك جود (زميل ألان تورينج الذي فك الشفرة معه في بلتشلي بارك) وفيرنور فينج وراي كورزويل. (توقع تورينج نفسه أن تتولى الآلة زمام الأمور، ولكنه لم يصرِّح).

في عام ١٩٦٥، تنبَّأ جود بآلة فائقة الذكاء، وتوقَّع أن تتفوق تلك الآلة إلى حد بعيد في كل الأنشطة العقلية لأي إنسان مهما بلغ ذكاؤه. وبما أنها يمكن أن تصمم آلات ذات ذكاء أفضل، فلا ريب في أنها [ستؤدي إلى] ثورة في الذكاء. حينذاك، كان جود متفائلًا، ولكن على وجل: «الآلة الفائقة الذكاء هي آخر اختراع يحتاج الإنسان إلى صنعه، ولكن بشرط أن تكون تلك الآلة طيِّعة بالقدر الذي يجعلها تخبرنا كيف نُبقيها تحت تصرفنا.» لكن بعد ذلك، احتجَّ بقوله إن الآلات الفائقة الذكاء ستدمرنا.

بعد ربع قرن من الزمان، أشاع فينج مصطلح «التفرد» (وأول من أطلقه في هذا السياق هو جون فون نيومان عام ١٩٥٨). تنبَّأ ﺑ «التفرد التكنولوجي القادم» الذي ستنهار عنده كل التنبؤات (مقارنةً بأفق الحدث في الثقوب السوداء).

سلَّم بأن التفرد نفسه يمكن توقُّعه، بل إنه لا مفر منه في الحقيقة. ولكن قد يكون له تبعات كثيرة (غير معروفة)، ومنها احتمالية تدمير الحضارة وحتى الجنس البشري. إننا نتجه نحو «التخلص من كل القواعد السابقة، وربما يحدث ذلك في غمضة عين، إنه هروب فائق السرعة يتخطَّى أي أمل في السيطرة». حتى إن أدركت كل الحكومات الخطر وحاولت أن تمنعه، فلن تستطيع.

تصدَّى كروزويل لتشاؤم فينج ومن بعده جود (في نهاية المطاف). فهو لم يقدم فأل خير فحسب، بل أعطى مواعيد محدَّدة.

في كتابه الذي يحمل عنوان «التفرد قريب»، يقول إن الذكاء الاصطناعي العام سيتحقق بحلول عام ٢٠٣٠؛ وبحلول عام ٢٠٤٥، سيكون الذكاء الاصطناعي الخارق (بالإضافة إلى تكنولوجيا النانو والتكنولوجيا الحيوية) قد تغلَّب على الحروب والأمراض والفقر وأسباب الموت. كذلك سيؤدي إلى «ثورة في الفن والعلوم وأشكال المعارف الأخرى التي ستعطي معنًى للحياة حقًّا». وبحلول منتصف القرن أيضًا، سنعيش في واقع افتراضي أكثر ثراءً وإرضاءً من العالم الحقيقي. وفي رأي كورزويل، «التفرد» فريد حقًّا، و«قريب» تعني أنه قريب بالفعل.

(يخفُّ هذا التفاؤل المُفرِط في بعض الأحيان. وسرد كورزويل العديد من المخاطر التي تهدِّد الوجود والناتجة بنسبة كبيرة من التكنولوجيا الحيوية التي تعمل بمساعدة الذكاء الاصطناعي. وأما بشأن الذكاء الاصطناعي نفسه، فإنه يقول: «الذكاء بطبيعته يستحيل السيطرة عليه … ولا جدوى اليوم من وضع استراتيجيات تضمن تمامًا أن يتحلى الذكاء الاصطناعي في المستقبل بالأخلاق والقيم»).

استندت حجة كورزويل على قانون مور؛ إذ لاحظ مؤسس شركة إنتل جوردون مور أن قوة الكمبيوتر المتاحة مقابل دولار واحد تتضاعف كل عام. (ستتغلب قوانين الفيزياء على قانون مور في النهاية، ولكن ليس في المستقبل القريب). وكما أشار كورزويل، أي زيادة فائقة السرعة لا تأتي على حسب المتوقع تمامًا. ويقول هنا، إن هذا ينطوي على أن الذكاء الاصطناعي يتقدم بسرعة لا يمكن تخيلها. ومثل فينج، يُصرُّ على أن التوقعات المبنية على التجارب السابقة لا قيمة لها تقريبًا.

تنبؤات متنافسة

على الرغم من التصريح بعدم قيمة التنبؤات بشأن ما بعد التفرد، غالبًا ما تُطرح هذه التنبؤات. توجد مجموعة من الأمثلة المحيرة للعقل في المؤلفات، ولكننا نذكر قليلًا منها في هذا الكتاب.

ينقسم المؤمنون بالتفرد إلى معسكرين؛ المتفائلين (من أتباع فينج) والمتشائمين (من أتباع كورزويل). يتفق معظمهم في أن التحول من الذكاء الاصطناعي العام إلى الذكاء الاصطناعي الخارق سيقع قبل نهاية هذا القرن. ولكنهم يختلفون فقط في العواقب الوخيمة التي سيؤدي إليها الذكاء الاصطناعي الخارق.

على سبيل المثال، يتوقع البعض أن تفعل الروبوتات الشريرة كل ما يحطم آمال البشر وحياتهم (وهذا النموذج شائع في أفلام الخيال العلمي وأفلام هوليوود). وعلى وجه التحديد، أُنكرت فكرة أنه يمكننا منع هذا الخراب إذا لزم الأمر. يقال إن أنظمة الذكاء الاصطناعي الخارق ستتحلى بالذكاء الذي يمكِّنها من الحيلولة دون ذلك.

يعترض آخرون ويقولون إن أنظمة الذكاء الاصطناعي الخارق لن يكون لها نوايا خبيثة، «ولكنها ستكون خطيرة على أي حال». إننا لن نغرس كراهية البشر في تلك الأنظمة، ولا يوجد سبب يدعوهم إلى اكتساب تلك الكراهية من تلقاء نفسها. بل إنهم لن يبالوا بنا، مثلما نفعل نحن تجاه معظم الأنواع من غير البشر. لكن عدم المبالاة من جانبها قد يكون زلة من جانبنا إن تعارضت مصالحنا مع الأهداف التي رُكبت فيها. الإنسان العاقل مثل طائر الدودو. في التجربة التي تخيلها نيك بوستروم والمقتبسة على نطاق واسع، ينوي نظام الذكاء الاصطناعي الخارق عمل مشابك ورق من شأنها أن تبحث عن الذرات في أجسام البشر كي تصنعها.

مرةً أخرى، فكر في استراتيجية عامة تُقترح أحيانًا للحماية من تهديدات التفرد، ألا وهي الاحتواء. وهنا، يُمنع الذكاء الاصطناعي الخارق من أن يتصرف في العالم من تلقاء نفسه على الرغم من أن بإمكانه التعرف على العالم من تلقاء نفسه. إنه لا يُستخدم إلا للإجابة عن أسئلتنا (وهو ما يُسميه بوستروم «أوراكل»). لكن العالم يوجد به شبكة الإنترنت، وربما تُحدث أنظمة الذكاء الاصطناعي الخارق تغييرات بطريقة غير مباشرة عن طريق المساهمة بالمحتوى على الإنترنت، مثل الوقائع والأكاذيب وفيروسات الكمبيوتر.

شكلٌ آخر من أشكال التشاؤم من التفرد، وهو أن الآلات ستضطرنا إلى القيام بأعمالها القذرة، حتى إن كان هذا يتعارض مع صالح البشرية. وهذه الفكرة تنكر فكرة أنه يمكننا «احتواء» أنظمة الذكاء الاصطناعي الخارق عن طريق الحيلولة دون اتصالها بالعالم. يقال إن الآلة الفائقة الذكاء يمكن أن تستخدم الرشوة أو التهديدات كي تقنع أحد الأشخاص القلائل التي تتصل بهم في بعض الأحيان لأداء أشياء يتعذر عليها أداؤها بنفسها.

يفترض هذا القلق على وجه التحديد أن يتعلم الذكاء الاصطناعي الخارق مقدارًا كبيرًا عن الجانب النفسي لدى الإنسان، لدرجة أن يعرف أنواع الرشوة أو التهديد الذي يؤثر، وربما أيضًا يتعرف على الأشخاص الذين يصلح معهم نوع معين من الإقناع. وردًّا بعدم قبول صحة هذا الافتراض، فإن الرشاوى المالية المغرية أو التهديدات بالقتل تكاد تصلح مع أي شخص؛ ومن ثَم لن يحتاج الذكاء الاصطناعي الخارق إلى رؤية نفسية تُباري الرؤية النفسية التي لدى هنري جيمس. وكذلك لن تحتاج إلى فهم ما تعنيه كلمات الإقناع والرشوة والتهديد بالمعنى الذي اصطلح عليه البشر. لن يحتاج النظام سوى معرفة أن إدخال نصوص معينة بمعالجة اللغة الطبيعية والتحدث بها إلى الإنسان يمكن أن تؤثر في سلوكه بطرق يسهل التنبؤ بها.

بعض التنبؤات المتفائلة أصعب بكثير. ربما أكثر ما يلفت الانتباه إليها توقعات كورزويل عن العيش في الحياة الافتراضية وغياب فكرة أن يخطف الموت أحبابنا. قد يستمر موت الجسد على الرغم من تطاول الأعمار (بفضل علوم الأحياء التي تستخدم الذكاء الاصطناعي الخارق). ولكن يمكن التخلص من فكرة الموت بتحميل الشخصيات وذكريات الأفراد على أجهزة الكمبيوتر.

برز هذا الافتراض المثير للإشكاليات الفلسفية بأن الشخص يمكن أن يوجد في مادة سيليكون أو في مادة بروتين عصبي (انظر الفصل السادس) في كتاب ألَّفه كورزويل عام ٢٠٠٥ بعنوان: «عندما يتفوق البشر على علم الأحياء». عبَّر كورزويل عن رؤيته «التفردية» — ويطلق عليها أيضًا الإنسانية العبورية أو بعد الإنسانية — لعالم يتكون جزئيًّا أو حتى كليًّا من أشخاص ليسوا من الكائنات البشرية.

يُزعم أن هؤلاء «الأشخاص المسيَّرين آليًّا» في حقبةِ ما بعد الإنسانية، سيوضع لهم غرسات حاسوبية تتصل مباشرةً بالدماغ والأطراف الصناعية والأعضاء الحسية أو أيٍّ من ذلك. سيزول العمى والصمم؛ لأن الإشارات البصرية والسمعية ستُفسَّر من خلال حاسة اللمس. على الأقل، سيتعزز الإدراك العقلي (وكذلك الحالة المزاجية) بفضل أدوية مصمَّمة خصوصًا.

الإصدارات الأولى من هذه التكنولوجيات المساعدة موجودة بالفعل. وإذا كانت تنتشر بسرعة على حد قول كورزويل، فسيتغير مفهومنا عن الإنسانية تغيرًا عميقًا. وبدلًا من النظر إلى الأطراف الصناعية باعتبارها أدوات مساعدة لجسم الإنسان، ستُرى على أنها أجزاء (متحولة) من جسم الإنسان. ستُدرج العقاقير المخامرة للعقل إلى جنب المواد الطبيعية مثل الدوبامين ضمن حسابات «الدماغ». وسيُعتبر الذكاء الخارق أو القوة أو الجمال لدى الأفراد المعدَّلين وراثيًّا سمات «طبيعية». كذلك ستُنقض الآراء السياسية بشأن المساواة والديمقراطية. وأيضًا ربما تتطور أنواع فرعية (أو أنواع) من أسلاف الإنسان الثرية بدرجة تتيح لها استغلال هذه الاحتمالات.

باختصار، يتوقع أن يحل التطور التقني محل التطور البيولوجي. يرى كورزويل أن التفرد هو «ذروة اندماج تفكيرنا البيولوجي ووجودنا مع التكنولوجيا؛ مما يؤدي إلى عالم [لا] يكون فيه تمييز … بين الإنسان والآلة أو بين الواقع المادي والواقع الافتراضي». (ربما يُغفر لك شعورك بالحاجة إلى نفس عميق).

الإنسانية العبورية مثال متطرف عن المدى الذي يمكن أن يغير به الذكاء الاصطناعي الأفكار بشأن طبيعة الإنسان. إن الفلسفة الأقل تطرفًا التي تستوعب التكنولوجيا في مفهوم العقل هي «العقل الممتد»، حيث ترى العقل متغلغِلًا في جميع أرجاء العالم بحيث يشمل العمليات المعرفية التي تعتمد عليه. وعلى الرغم من الانتشار الواسع لفكرة العقل الممتد، فإن فكرة الإنسانية العبورية ليست كذلك. وقد تحمَّس جمعٌ من الفلاسفة ومقدمي البرامج الثقافية والفنانين لدعم تلك الفكرة. وعلى الرغم من ذلك، لا يقبلها كل المؤمنين بالتفرد.

الدفاع عن الشك

في رأيي، التشكيك بشأن التفرد في محله. ورد في مناقشة تصوير العقل بالآلة الافتراضية بالفصل السادس أنه لا توجد عقبات أمام مبدأ بلوغ الذكاء الاصطناعي حد الذكاء البشري (وربما يستثنى من ذلك الوعي المُدرَك بالحواس). والسؤال هنا يدور حول ما إذا كان يمكن تنفيذ هذا عمليًّا.

بالإضافة إلى اللامعقولية البديهية للعديد من التنبؤات بشأن مرحلة ما بعد التفرد وفلسفة الإنسانية العبورية التي تكاد تصل إلى حد العبث (في رأيي)، فإن المشككين في التفرد لديهم حجج أخرى.

الذكاء الاصطناعي ليس مبشرًا بالقدر الذي يعتقده الكثيرون. ورد في الفصول من الثاني حتى الخامس أشياء عديدة لا يمكن للذكاء الاصطناعي أداؤها في الوقت الحالي. والعديد من تلك الأشياء يتطلب إحساسًا بشريًّا بالملاءمة (ويفترض ضمنيًّا إكمال الويب الدلالي؛ انظر الفصل الثاني). إضافة إلى ذلك، ركَّز الذكاء الاصطناعي على العقلانية الفكرية وتجاهل الذكاء الاجتماعي/العاطفي؛ ناهيك عن الحكمة. فالذكاء الاصطناعي العام الذي يتفاعل مع عالمنا تفاعلًا تامًّا سيحتاج إلى تلك القدرات أيضًا. أضف إلى ذلك الثراء الهائل للعقول البشرية والحاجة إلى نظريات نفسية/حاسوبية وجيهة عن طريقة عملها، في حين أن آفاق الذكاء الاصطناعي العام على مستوى الإنسان تبدو قاتمة.

حتى وإن كان تنفيذه ممكنًا عمليًّا، ثَمة شكوك بشأن تحقيق التمويل اللازم. تخصص الحكومات حاليًّا موارد هائلة في محاكاة الدماغ (انظر القسم التالي)، لكن الأموال المطلوبة لبناء عقول بشرية اصطناعية ستكون أكبر بكثير.

بفضل قانون مور، فلا ريب من توقُّع المزيد من التقدم في مجال الذكاء الاصطناعي. لكن الزيادات في قوة أجهزة الكمبيوتر ووفرة البيانات (بفضل التخزين السحابي والمستشعرات التي تعمل على مدار الساعة وحتى إنترنت الأشياء) لا يضمن أن يبلغ الذكاء الاصطناعي مستوى ذكاء الإنسان. تلك أخبار سيئة للمؤمنين بفكرة التفرد أن الذكاء الاصطناعي الخارق يحتاج إلى الذكاء الاصطناعي العام أولًا.

يتناسى المؤمنون بفكرة التفرد جوانب القصور التي يتَّسم بها الذكاء الاصطناعي في الوقت الراهن. إنهم ببساطة لا يبالون لأن لديهم ورقة رابحة، ألا وهي أن التقدم التكنولوجي السريع يعيد كتابة كل كتب القواعد. وهذا يخوِّلهم لطرح تنبؤات كما يشاءون. لكنهم يسلِّمون في بعض الأحيان بعدم واقعية التنبؤات التي ستحدث بحلول «نهاية القرن». وعلى الرغم من ذلك، يُصرُّون على أن كلمة «مستحيل» تعني وقتًا طويلًا.

كلمة «مستحيل» تعني وقتًا طويلًا حقًّا. ومن ثَم، قد يخطئ المشكِّكون في التفرد، ومنهم أنا. فهم ليس لديهم حجة دامغة، خاصة إذا سلَّموا باحتمالية الذكاء الاصطناعي العام من حيث المبدأ (كما أفعل أنا). وربما يقتنعون بأن التفرد سيحدث في النهاية حتى وإن طالت غيبته.

ومع ذلك، فإن الدراسة المتأنية للذكاء الاصطناعي الحديث تعطي سببًا وجيهًا لدعم فرضية المشككين (أو رهانهم إذا كنت تفضل هذا المصطلح) بدلًا من التكهنات الجامحة للمؤمنين بالتفرد.

المحاكاة الكاملة للدماغ

يتوقع المؤمنون بالتفرد أن يحدث تقدم تكنولوجي فائق السرعة في الذكاء الاصطناعي والتكنولوجيا الحيوية وتكنولوجيا النانو، وفي التعاون فيما بين هذه المجالات. وفي الحقيقة، هذا التقدم واقعٌ الآن. تُستخدم تحليلات البيانات الضخمة لإحراز تقدم في الهندسة الوراثية وتطوير الأدوية، والعديد من المشروعات العلمية الأخرى (وبذلك يُسوَّغ لرأي آدا لافليس؛ انظر الفصل الأول). وبالمثل، يُمزج الذكاء الاصطناعي وعلم الأعصاب في المحاكاة الكاملة للدماغ.

تهدف المحاكاة الكاملة للدماغ إلى محاكاة دماغ حقيقية عن طريق محاكاة مكوناته الفردية (الخلايا العصبية)، بالإضافة إلى وصلاتها وقدراتها الخاصة بمعالجة المعلومات. يؤمل أن يكون للمعرفة العلمية المكتسبة في العديد من المجالات، بما في ذلك علاج الأمراض العقلية بدءًا من ألزهايمر وصولًا إلى الفصام.

ستتطلب هذه الهندسة العكسية الحوسبة العصبية، توفر نماذج للعمليات الخلوية الفرعية مثل مرور الأيونات عبر غشاء الخلية (انظر الفصل الرابع).

تعتمد الحوسبة العصبية على المعرفة بتشريح الأنواع المختلفة من الخلايا العصبية والعلم بوظائفها. لكن المحاكاة الكاملة للدماغ ستتطلب أدلة تفصيلية عن وصلات عصبية محددة وعن وظائفها، بما في ذلك التوقيت. سيتطلب قدرٌ كبير من هذه العملية فحصًا محسنًا للدماغ بالإضافة إلى مسابير عصبية مصغرة لا تتوقف عن رصد الخلايا العصبية الفردية.

في الوقت الراهن، تُنفَّذ العديد من مشروعات المحاكاة الكاملة للدماغ، وكثيرًا ما يقارنها رعاتها بمشروع الجينوم البشري أو السباق إلى القمر. على سبيل المثال، أعلن الاتحاد الأوروبي عام ٢٠١٣ عن مشروع الدماغ البشري بتكلفة تبلغ مليار جنيه إسترليني. وفي وقت لاحق من العام نفسه، أعلن الرئيس الأمريكي باراك أوباما عن مبادرة أبحاث الدماغ عبر النهوض بالتقنيات العصبية المبتكرة، وقد استمر المشروع ١٠ سنوات، وموَّلته الحكومة الأمريكية بمبلغ ثلاثة مليارات دولار أمريكي (بالإضافة إلى مبلغ كبير من الأموال الخاصة). يهدف المشروع في المقام الأول إلى تصميم خريطة ديناميكية للاتصالية في أدمغة الفئران، ثم محاكاة حالة الإنسان.

الحكومة هي الجهة التي موَّلت المحاولات السابقة للمحاكاة الجزئية للدماغ. عام ٢٠٠٥، رعت سويسرا مشروع «الدماغ الأزرق»، وكان هدفه الأساسي محاكاة العمود القشري لدى الفأر، ولكن الهدف الطويل المدى هو إعداد نماذج لمليون عمود قشري في القشرة الجديدة للإنسان. في عام ٢٠٠٨، قدَّمت وكالة مشروعات الأبحاث المتطورة الدفاعية (داربا) نحو ٤٠ مليون دولار لمشروع «أنظمة الإلكترونيات العصبية والبلاستيكية القابلة للتطور»؛ وفي عام ٢٠١٤، وبتقديم ٤٠ مليون دولار إضافية تقريبًا، كان هذا المشروع يستخدم رقائق تحمل ٥٫٤ مليارات ترانزستور، وكل ترانزستور يحمل مليون وحدة (خلية عصبية) و٢٥٦ مليون تشابك عصبي. كذلك تتعاون ألمانيا واليابان في استخدام «تكنولوجيا المحاكاة العصبية» لتطوير الكمبيوتر كيه؛ وبحلول عام ٢٠١٢، كان الأمر يستغرق ٤٠ دقيقة لمحاكاة ثانية واحدة من واحد بالمائة من نشاط الدماغ الحقيقي، وكان يتضمن ١٫٧٣ مليار خلية عصبية و١٠٫٤ تريليونات تشابك عصبي.

ونظرًا إلى التكلفة الباهظة، نادرًا ما تُجرى المحاكاة الكاملة للدماغ على الثدييات. ولكن تُنفَّذ محاولات لا حصر لها حول العالم لتخطيط الأدمغة الأصغر بكثير (في جامعتي، هم يركزون على نحل العسل). وربما تقدم هذه التجارب رؤًى علمية عصبية يمكن أن تساعد في المحاكاة الكاملة للدماغ على مستوى الإنسان.

وانطلاقًا من التقدم المتحقِّق بالفعل في مكونات الأجهزة (مثل رقاقات أنظمة الإلكترونيات العصبية والبلاستيكية القابلة للتطوير) بالإضافة إلى قانون مور، فإنه يمكن تصديق تنبؤ كورزويل بأن أجهزة الكمبيوتر المطابقة لقدرة المعالجة الأولية في دماغ الإنسان ستوجد في عشرينيات القرن الحادي والعشرين. ولكن اعتقاده بأنها ستتطابق مع ذكاء الإنسان بحلول ٢٠٣٠ مسألة أخرى.

ما يهمنا في هذا المقام هي الأجهزة الافتراضية (انظر الفصلين الأول والسادس). بعض الأجهزة الافتراضية لا يمكن تنفيذها إلا بمكونات أجهزة بالغة القوة. لذلك قد تكون رقائق الكمبيوتر ذات عدد الترانزستورات الضخم ضرورية. لكن ما عمليات الحوسبة التي ستنفذها؟ بعبارة أخرى، ما الأجهزة الافتراضية التي ستُنفَّذ بتلك المكونات؟ لمضاهاة ذكاء الإنسان (أو حتى الفأر)، لا بد أن تكون هذه الأجهزة قوية معلوماتيًّا بطرق لم يفهمها علماء النفس الحاسوبيون فهمًا تامًّا حتى الآن.

لنفترض أن كل خلية عصبية في دماغ الإنسان سيجري تخطيطها في النهاية، ولكني لا أظن أن هذا سيحدث. هذا في حد ذاته لن يخبرنا بما سيحدث. (لا تحتوي الدودة الخيطية الصغيرة «الربداء الرشيقة» إلا على ٣٠٢ خلية عصبية، والاتصالات بين تلك الخلايا معروفة بدقة. ولكن لا يمكننا حتى تحديد هل هذه التشابكات العصبية محفزة أم مثبطة).

بالنسبة إلى القشرة البصرية، لدينا الآن بالفعل تخطيط تفصيلي بين التشريح العصبي والوظائف النفسية. ليس الأمر كذلك بالنسبة إلى القشرة الدماغية الجديدة بوجه عام. وعلى وجه التحديد، لا نعرف كثيرًا عما تفعله القشرة الأمامية؛ بمعنى ماهية الأجهزة الافتراضية التي تُنفَّذ فيها. هذا السؤال ليس بارزًا في المحاكاة الكاملة للدماغ الواسعة النطاق. على سبيل المثال، اعتمد «مشروع الدماغ البشري» نهجًا تصاعديًّا؛ انظر إلى التشريح والكيمياء الحيوية وحاول محاكاتهما. هُمشت الأسئلة المتنوعة بشأن الوظائف النفسية التي قد يدعمها الدماغ (ولم يشترك سوى قلة من علماء علم الأعصاب المعرفي). حتى إن تحقَّقت النمذجة التشريحية بالكامل، ورُصدت الرسائل الكيميائية بعناية، فلن تتم الإجابة عن تلك الأسئلة.

قد تطلب تلك الإجابات مجموعة كبيرة من المفاهيم الحاسوبية. إضافة إلى ذلك، من الموضوعات الأساسية في تلك المسألة المعمارية الحاسوبية للدماغ (أو العقل والدماغ) ككلٍّ. رأينا في الفصل الثالث أن تخطيط العمل لدى المخلوقات التي لها عدة أهداف تتطلب آليات جدولة معقدة، مثل الآليات التي توفرها العاطفة. وأشارت المناقشة بشأن نموذج تعلُّم وكيل التوزيع الذكي في الفصل السادس إلى التعقيد البالغ في المعالجة القشرية. حتى النشاط الدنيوي المتمثل في تناول الطعام بالسكين والشوكة يتطلب دمج العديد من الأجهزة الافتراضية، وبعض تلك الأجهزة يتعامل مع أشياء مادية (العضلات والأصابع والأواني وأنواع مختلفة من المستشعرات)، والبعض الآخر مع النوايا والخطط والتوقعات والرغبات والتقاليد الاجتماعية والتفضيلات. لفهم مدى احتمالية ذلك النشاط، لا نحتاج بيانات علمية عصبية عن الدماغ فحسب، بل نحتاج إلى نظريات حاسوبية تفصيلية عن العمليات النفسية المشتركة في النشاط.

باختصار، إن اعتبرنا المحاكاة الكاملة للدماغ طريقة لفهم الذكاء البشري، فمن المرجَّح أن تفشل المحاكاة الكاملة التصاعدية للدماغ. قد تعلمنا الكثير عن الدماغ. وقد تساعد علماء الذكاء الاصطناعي على تطوير تطبيقات عملية أكثر. ولكن فكرة أن المحاكاة الكاملة للدماغ ستشرح الذكاء البشري بحلول منتصف القرن ما هي إلا وهم.

ما ينبغي أن نقلق بشأنه

إذا كان المشككون في التفرد على صواب، ولن يتحقق التفرد، فلا يعني ذلك أنه لا يوجد ما نقلق إزاءه. فالذكاء الاصطناعي يثير المخاوف بالفعل. وسيثير التقدم المستقبلي المزيد من القلاقل؛ ومن ثَم القلق بشأن السلامة في الذكاء الاصطناعي على المدى البعيد في محله تمامًا. أضِف إلى ذلك أننا بحاجة إلى أن ننتبه إلى تأثيراته على المدى القصير أيضًا.

بعض المخاوف عادية إلى حد كبير. على سبيل المثال، يمكن استخدام أي تكنولوجيا في الخير أو الشر. سيستخدم الخبيثون أي أدوات متاحة — وربما يموِّلون تطوير أدوات جديدة — لارتكاب أفعال مشينة. (مشروع «سي واي سي» على سبيل المثال قد يكون مفيدًا لمرتكبي الأفعال الشريرة؛ والمطورون بالفعل يفكرون في طرق لتقييد الوصول إلى النظام الكامل عند إصداره، انظر الفصل الثاني). لذا يجب أن نتحرى أقصى درجات الحذر فيما نخترع.

وكما أشار ستيوارت راسل، هذا يعني ما هو أكبر من مجرد الانتباه إلى أهدافنا. إذا كانت هناك ١٠ معلمات ذات صلة بمسألة ما، وإحصائيًّا تحسين تعلم الآلة لا يراعي أكثر من ست معلمات (انظر الفصل الثاني)، فيمكن دفع المعلمات الأربعة المتبقية إلى حدود متطرفة. وهنا، يجب أن نفطن أيضًا إلى أنواع البيانات التي تُستخدم.

هذا القلق العام معني بمسألة الإطار (انظر الفصل الثاني). ومثل الصياد في القصة الخيالية، حينما تمنَّى أن يعود ابنه الجندي إلى الوطن ولكنه عاد إليه محمولًا على الأعناق، ربما نندهش كثيرًا من أنظمة الذكاء الاصطناعي القوية التي تفتقر إلى فهمنا لماهية الصلة بالموضوع.

على سبيل المثال، عندما أوصى نظام الإنذار المبكر للحرب الباردة (في الخامس من أكتوبر ١٩٦٠) بضربة دفاعية ضد الاتحاد السوفيتي، لم تُتجنب الكارثة إلا لما أحسَّ المشغلون بالأهمية السياسية والإنسانية على حد سواء. قالوا إن السوفيت في الأمم المتحدة لم يحدثوا صخبًا لا سيما في الآونة الأخيرة، وقد خشوا أن تحدُث عواقب وخيمة جرَّاء هجوم نووي. ومن ثَم كسروا البروتوكولات وتجاهلوا التحذير الآلي. كادت أن تقع العديد من الحوادث النووية الأخرى، وبعضها لم يمر عليه وقت طويل. عادةً لا يُمنع التصعيد إلا بالمنطق السليم لدى الناس.

إضافة إلى ذلك، وقوع أخطاء من الإنسان محتمل على الدوام. تلك الأخطاء تكون مفهومة في بعض الأحيان. (تفاقمت حالة الطوارئ في مشروع جزيرة الثلاثة أميال حينما أوقف البشر جهاز الكمبيوتر، ولكن الظروف المادية التي كانوا يواجهونها لم تكن طبيعية إلى حد كبير). ولكن ربما تكون غير متوقعة إلى حد الاندهاش. صار التحذير من الحرب الباردة المذكور في الفقرة السابقة واقعًا لأن أحدًا نسي السنوات الكبيسة عند برمجة التقويم؛ ومن ثَم كان القمر في المكان الخطأ. وكل هذا يضيف سببًا إلى ضرورة اختبار برامج الذكاء الاصطناعي وإثبات موثوقيتها (إن أمكن) قبل الاستخدام.

المخاوف الأخرى محدَّدة أكثر. لا بد أن بعضها يُزعجنا اليوم.

البطالة بسبب التكنولوجيا واحدة من أهم التهديدات. فقد اختفت العديد من الوظائف اليدوية والكتابية المنخفضة المستوى. ولكن سيعقُب ذلك وظائف أخرى (على الرغم من أن الوظائف اليدوية التي تتطلب البراعة والقدرة على التكيف لن تختفي). والآن، يمكن القيام بمعظم أعمال الرفع والجلب والحمل في المخازن باستخدام الروبوتات. وتطوير سيارات بدون سائق ستعني فقدان الناس لوظائفهم.

حتى الوظائف الإدارية الوسطى عُرضة للاختفاء هي الأخرى. يستخدم العديد من الاحترافيين الآن أنظمة الذكاء الاصطناعي باعتبارها أدوات مساعدة. لن يمر وقتٌ طويل حتى يستولي الذكاء الاصطناعي على جزء كبير من الوظائف (في القانون والمحاسبة، على سبيل المثال) التي تتضمن عمليات بحث طويلة في اللوائح والأعمال السابقة. كذلك سرعان ما ستتأثر المهن ذات درجة الطلب العالية، ومنها المهن الطبية والعلمية. ستقل المهارات في الوظائف حتى وإن لم تُفقد. سيتدهور التدريب المهني؛ كيف سيتعلم الفِتيان إصدار أحكام منطقية؟

في حين أن بعض الوظائف القانونية ستزيد عن الحاجة، فإن المحامين سيستفيدون من الذكاء الاصطناعي؛ لأن مجموعة من الفخاخ القانونية تصطفُّ منتظرة. إذا حدث خطأ ما، فمن سيكون المسئول؛ هل المبرمج أم تاجر الجملة أم بائع التجزئة أم المستخدم؟ وهل يمكن مقاضاة أحد المهنيين على عدم استخدامه نظام الذكاء الاصطناعي؟ إذا ثبت أن النظام يمتاز بدرجة موثوقية عالية (سواء رياضيًّا أو تجريبيًّا)، فالأرجح أن يحدث هذا التقاضي.

لا شك أنه ستظهر أنواع وظائف جديدة. لكن المشكوك فيه هو ما إذا كانت هذه الوظائف ستعادل الوظائف القديمة من حيث الأعداد وإمكانية الوصول إلى الوسائل التعليمية وقدرة المعيلين (مثلما حدث بعد الثورة الصناعية) أم لا. فنحن تنتظرنا تحديات اجتماعية وسياسية خطيرة.

لن يتعرض قِطاع الخِدمات إلى تهديد كبير. ولكن حتى هذه الوظائف معرَّضة للخطر. وفي أفضل الحالات، ستُغتنم الفرص بحماسة للمضاعفة والارتقاء بالأنشطة بين الأشخاص التي لا تحظى بالتقدير الكافي في الوقت الحالي. ولكن هذا ليس مضمونًا.

على سبيل المثال، يُفتح التعليم لعوامل المساعدة الفردية والذكاء الاصطناعي القائم على الإنترنت أو أحدهما، ومن ذلك الدورات التدريبية الضخمة المفتوحة على الإنترنت التي توفر محاضرات يقدمها أكاديميون بارزون؛ مما يحط من قدر المهارات الوظيفية لدى العديد من المعلمين في الفصول. يتوفر الأطباء النفسيون على الكمبيوتر بالفعل، وبتكلفة أقل من الأطباء في العيادات. (بعض هؤلاء الأطباء مفيدون إلى حد كبير، في التعرف على الاكتئاب، على سبيل المثال). وعلى الرغم من ذلك، فتلك الخِدمات لا تخضع لأي لوائح قانونية البتة. وقد رأينا في الفصل الثالث أن التغير الديموجرافي يشجع على البحث في مجال ربما يصبح مربحًا، وهو «تقديم خدمات الرعاية» بالذكاء الاصطناعي لكبار السن وكذلك «المربيات الروبوتية».

وبصرف النظر عن أي تأثيرات على البطالة، فإن استخدام أنظمة الذكاء الاصطناعي الخالي من العاطفة في هذه السياقات الإنسانية الجوهرية محفوف بالمخاطر من الناحية العملية ومريب من الناحية الأخلاقية. صُمم العديد من «أجهزة الكمبيوتر المرافقة» كي يستخدمها كبار السن أو المعاقين ممن لهم تواصل ضئيل مع عدد قليل من البشر الذين يتعاملون معهم. ليس الهدف من هذه الأجهزة أن تكون مجرد مصادر للمساعدة والترفيه فحسب، بل لتكون أيضًا وسائل للمحادثة والمؤانسة والارتياح العاطفي. حتى إذا زادت سعادة الإنسان المعرَّض للخطر بتلك التكنولوجيا (مثل سعادة مستخدمي الروبوت بارو)، فإنه يُتخلى عن كرامتهم الإنسانية رويدًا رويدًا. (الاختلافات الثقافية مهمة في هذا السياق؛ تختلف المواقف تجاه الروبوتات اختلافًا كبيرًا بين اليابان والغرب على سبيل المثال).

قد يستمتع المستخدمون من كبار السن بمناقشة ذكرياتهم الشخصية مع مرافق ذي ذكاء اصطناعي. لكن هل هذه مناقشة حقًّا؟ قد تكون تذكيرًا مرغوبًا، حيث إنها تحيي نوبات مطمئنة من الحنين إلى الماضي. ومع ذلك، يمكن تقديم هذه الميزة دون إغراء المستخدم بوهم التعاطف. وفي كثير من الأحيان، ما يريده الشخص قبل كل شيء هو الاعتراف بشجاعته و/أو معاناته، حتى في مواقف الاستشارات المشحونة بالعاطفة. ولكن ينشأ هذا من الفهم المشترك للحالة الإنسانية. إننا نولي الأفراد اهتمامًا أقل من المتوقع عندما لا نقدم لهم سوى محاكاة سطحية للتعاطف.

حتى إذا كان المستخدم يعاني الخرف إلى حد ما، فمن المرجَّح أن تكون «نظريته» عن عامل الذكاء الاصطناعي أثرى من نموذج العامل البشري. إذَن، ما النتيجة إن أخفق العامل في الاستجابة حسب المتوقع وحسب الحاجة عندما يستغرق الشخص في ذكريات فقد آلمته (كأن يكون فقد ولدًا)؟ لن تجدي تعبيرات التعاطف في المحادثة مع الرفيق نفعًا، وربما تضر أكثر مما تنفع. وفي هذه الأثناء، قد يتفاقم كرب الشخص من دون أن تتوافر له السلوى على الفور.

هناك قلق آخر، وهو هل الرفيق عليه أن يصمت في بعض الأحيان أم يقول كذبة بيضاء. قول الحقيقة الصارمة (والصمت المفاجئ) قد يُغضب المستخدم. لكن اللباقة تتطلب تطويرًا هائلًا في معالجة اللغات الطبيعية بالإضافة إلى نموذج دقيق لعلم النفس البشري.

بالنسبة إلى المربيات الروبوتات (وتجاهل مشكلات السلامة)، فإن الإفراط في استخدام أنظمة الذكاء الاصطناعي مع الأطفال والرُّضع قد يؤدي إلى تشوُّه نموهم الاجتماعي واللغوي أو أحدهما.

لا يُصوَّر شركاء الجنس الاصطناعيون في الأفلام فحسب (مثل فيلم «هي» (هير)). بل يُسوَّق لها بالفعل. بعضها يستطيع التعرف على الكلام، وكذلك يستطيع إصدار كلام أو حركات إغراء. إنها تزيد من تأثيرات الإنترنت التي تزيد من العنف الجنسي لدى البشر في الوقت الحالي (وتعزز التشويه الجنسي للمرأة). كتب الكثيرون (ومنهم علماء في الذكاء الاصطناعي) عن اللقاءات الجنسية مع الروبوتات بعبارات تكشف عن مفهوم ضحل للغاية عن الحب، ويكاد يخلط بينه وبين الشهوة والهوس الجنسي ومجرد الألفة الباعثة على الراحة. ولكن لا يُحتمل أن تكون هذه الملاحظات التحذيرية فعالة. بناءً على الربح الذي تُدرُّه صناعة الإباحية بوجه عام، فهناك أمل ضئيل في منع «التطورات» المستقبلية في دُمى الجنس ذات الذكاء الاصطناعي.

الخصوصية مشكلة أخرى معقَّدة. تزداد حدة الجدل في المسألة، حيث إن بحث الذكاء الاصطناعي القوي وتعلم الذكاء الاصطناعي متروكان للبيانات التي تُجمع من الوسائط الشخصية وأجهزة الاستشعار في المنازل أو المخازن. (حصلت جوجل على براءة اختراع في دب روبوتي، حيث وضعت الكاميرا في عينيه، والميكروفون في أذنيه، ومكبرات الصوت في فمه. سيكون قادرًا على التواصل مع الوالدين والأطفال، وكذلك مع جامعي البيانات غير المرئيين أيضًا بصورة عشوائية).

الأمن السيبراني مشكلة منذ أمد بعيد. وكلما توغَّل الذكاء الاصطناعي في عالمنا (وكثيرًا ما يحدث ذلك بطرق غير شفَّافة)، زادت أهميته. من وسائل الدفاع ضد الاستحواذ على الذكاء الاصطناعي الخارق هو إيجاد طرق لكتابة خوارزميات لا يمكن اختراقها/تغييرها (وهو هدف الذكاء الاصطناعي الصديق؛ انظر القسم التالي).

التطبيقات العسكرية أيضًا تثير المخاوف. الروبوتات الكاسحاتُ الألغامِ مرحَّبٌ بها بشدة. لكن ماذا عن الجنود الروبوتيين أو الأسلحة الروبوتية؟ الطائراتُ من دون طيار الحاليةُ يشغلها الإنسان، لكنها قد تزيد المعاناة من خلال توسيع المسافة البشرية (وليس الجغرافية فقط) بين المشغل والهدف. ولا بد أن نرجو ألا يُسمح للطائرات بدون طيار أن تقرر مَن/ما الهدف المنشود. حتى الثقة بها في التعرف على هدف (جرى اختياره بشريًّا) تثير قضايا مقلقة من الناحية الأخلاقية.

الإجراءات الوقائية من تلك المخاوف

هذه المخاوف ليست جديدة، على الرغم من أنه لم يلاحظها من العاملين في الذكاء الاصطناعي سوى قلة حتى الآن.

تدارس العديد من رواد الذكاء الاصطناعي التأثيرات الاجتماعية في اجتماع عُقِد في ليك كومو عام ١٩٧٢، لكن رفض جون مكارثي أن ينضم إليهم، وقال إن الأمر لا يزال باكرًا على التفكير. بعد بضع سنوات، نشر عالم الكمبيوتر جوزيف فايزنباوم كتابًا بعنوان «من الحكم إلى الحساب»، يندِّد فيه ﺑ «الفحش» الناتج عن الخلط بين الاثنين، ولكن نبذه مجتمع الذكاء الاصطناعي مستهزئًا به.

كانت هناك بعض التوقعات بالفعل. على سبيل المثال، في أول كتاب يُسلط الضوء على الذكاء الاصطناعي (من مؤلفاتي، ونُشر عام ١٩٧٧)، تناول الفصل الأخير موضوع «الأهمية الاجتماعية». تأسست مؤسسة «متخصصو الكمبيوتر من أجل المسئولية الاجتماعية» عام ١٩٨٣ (وجزء من تأسيسها راجع إلى جهود تيري فينوجراد مطور برنامج «شردلو»؛ انظر الفصل الثالث). لكن هذا فُعل في المقام الأول للتحذير من عدم موثوقية تكنولوجيا حرب النجوم، حتى إن عالم الكمبيوتر ديفيد بارناس خاطَب مجلس الشيوخ الأمريكي حول هذا الموضوع. وعندما انحسرت مخاوف الحرب الباردة، بدا معظم محترفي الذكاء الاصطناعي وكأنه قلَّ شغفهم بمجال عملهم. ولم يستمر في التركيز على القضايا الاجتماعية/الأخلاقية على مدار سنوت سوى قلة منهم، مثل نيويل شاركي من جامعة شيفيلد (عالم روبوتات ترَّأس اللجنة الدولية للحد من أسلحة الروبوت)، بالإضافة إلى بعض فلاسفة الذكاء الاصطناعي، مثل ويندل والاش من جامعة ييل، وبلاي ويتبي من جامعة ساسكس.

والآن، نظرًا إلى الممارسات والمستقبل الواعد للذكاء الاصطناعي، أصبحت هذه الهواجس ملحةً أكثر. ومن ثَم أصبحت التداعيات الاجتماعية داخل المجال (وإلى حد ما خارجه) تنال مزيدًا من الاهتمام.

بعض الاستجابات المهمة لا علاقة لها بالتفرد. على سبيل المثال، تدعو الأمم المتحدة ومنظمة رصد حقوق الإنسان منذ فترة إلى معاهدة (لم تُوقَّع حتى الآن) تحظر الأسلحة المستقلة بالكامل، مثل الطائرات من دون طيار التي تختار الهدف. وفي الآونة الأخيرة، راجعت بعض الهيئات الراسخة أولويات البحث ومدونة قواعد السلوك لديها أو أحدهما. ولكن الحديث عن التفرد جر المزيد من المساهمين إلى النقاش.

يقول كثيرون من المؤمنين بالتفرد والمشككين فيه على حد سواء إنه حتى وإن كانت احتمالية تحقيق التفرد ضئيلة للغاية، فإن التبعات المحتملة بالغة الخطر، وينبغي أن نتخذ التدابير الاحترازية بدءًا من الآن. وعلى الرغم من زعم فينج بأنه لا يمكن فعل شيء إزاء التهديدات الوجودية، أقيمت العديد من المؤسسات للحماية منها.

ومن هذه المؤسسات في المملكة المتحدة، مركز دراسات المخاطر الوجودية بكامبريدج ومعهد مستقبل الإنسانية بأكسفورد؛ وفي الولايات المتحدة، معهد مستقبل الحياة في بوسطن ومعهد أبحاث ذكاء الآلة في بيركلي.

تتلقى هذه المؤسسات تمويلات ضخمة من الأسخياء على الذكاء الاصطناعي. على سبيل المثال، شارَك جان تالين في تطوير برنامج سكايب، وشارَك في تأسيس مركز دراسات المخاطر الوجودية ومعهد مستقبل الحياة. تحاول هاتان المؤسستان أن تُنبِّها صناع السياسات وغيرهم من المؤثرين في الرأي العام إلى تلك المخاطر، هذا إلى جانب التواصل مع المتخصصين في الذكاء الاصطناعي.

نظَّم رئيس الجمعية الأمريكية للذكاء الاصطناعي (إريك هورويتز) لجنةً مصغَّرة عام ٢٠٠٩ لمناقشة التدابير الاحترازية التي يمكن اتخاذها لتوجيه — أو حتى تأجيل — العمل في الذكاء الاصطناعي المثير للمشكلات الاجتماعية. وواضح أن هذه اللجنة عُقدت في أسيلومار بكاليفورنيا، حيث اتفق متخصصون في علم الوراثة قبل بضع سنوات على إيقاف أبحاث معينة في علم الوراثة. ولكن بصفتي عضوًا في المجموعة، ترسَّخ لديَّ انطباع أنه ليس كل المشاركين مهتمين بمستقبل الذكاء الاصطناعي. لم يحظَ التقرير المطمئن بانتشار مكثَّف في وسائل الإعلام.

عقد كلٌّ من معهد مستقبل الحياة ومركز دراسات المخاطر الوجودية اجتماعًا ذا دوافع مماثلة ولكنه أكبر (بموجب قواعد دار تشاتام وبدون وجود صحفيين) في بورتوريكو في يناير ٢٠١٥. شارك منظم الاجتماع ماكس تيجمارك في التوقيع مع راسل وهوكينج على الرسالة التحذيرية قبل ستة أشهُر. لا عجب إذَن من أن تكون الأجواء ملحةً أكثر بكثير مما كانت عليه في أسيلومار. فقد أدت إلى توفير تمويل على الفور (من مليونير الإنترنت إيلون ماسك) للأبحاث بشأن سلامة الذكاء الاصطناعي والذكاء الاصطناعي الأخلاقي — بالإضافة إلى خطاب تحذيري مفتوح وقَّع عليه آلاف العاملين في الذكاء الاصطناعي، وقد تناقلته وسائل الإعلام على نطاق واسع.

بعد فترة وجيزة، خطاب مفتوح آخر صاغه توم ميتشل والعديد من رواد الباحثين، حيث حذَّروا من تطوير الأسلحة المستقلة التي تحدد الأهداف وتتشابك معها من دون تدخُّل البشر. يأمل الموقعون في «منع انطلاق سباق تصنيع أسلحة الذكاء الاصطناعي». قُدم الخطاب في المؤتمر الدولي للذكاء الاصطناعي المنعقد في يوليو ٢٠١٥، وقد وقع عليه ما يقرب من ٣ آلاف عالم و١٧ ألفًا من المتخصصين في مجالات ذات صلة، وقد كان له صدًى واسع في وسائل الإعلام.

أدى الاجتماع الذي عُقِد في بورتوريكو إلى صياغة خطاب مفتوح (في يونيو ٢٠١٥)، وقد صاغه عالِما الاقتصاد من معهد ماساتشوستس للتكنولوجيا إريك برينجولفسون وآندي مكافي. كان هذا الخطاب موجَّهًا إلى صناع السياسات وأصحاب المشروعات ورجال الأعمال وكذلك علماء الاقتصاد. وتحذيرًا من الآثار الاقتصادية الخطيرة المحتملة جرَّاء الذكاء الاصطناعي، فقد اقترح الخطاب بعض التوصيات السياسية العامة التي ربما تخفف من وطأة المخاطر، على الرغم من أنها لن تمنعها.

شهد شهر يناير ٢٠١٧ دعوة أخرى لاجتماع بشأن الذكاء الاصطناعي المفيد. ومن جديد، نظم تيجمارك الاجتماع في مدينة أسيلومار الشهيرة.

تهدف هذه الجهود المبذولة من جانب مجتمع الذكاء الاصطناعي إلى إقناع الممولين الحكوميين عبر الأطلسي بأهمية القضايا الاجتماعية/الأخلاقية. ومؤخرًا، صرَّح كلٌّ من وزارة الدفاع الأمريكية ومؤسسة العلوم الوطنية عن رغبتهما في تمويل تلك الأبحاث. ولكن هذا الدعم ليس جديدًا بالكامل؛ فاهتمام الحكومات يتنامى منذ بضع سنوات.

على سبيل المثال، رعت مجالس الأبحاث في المملكة المتحدة أحد معارض «روبوتيكس ريتريت» المتعددة التخصصات عام ٢٠١٠، وشاركت في صياغة مدوَّنة قواعد السلوك الخاصة بعلماء الروبوتات. جرى الاتفاق على خمسة «مبادئ»، تناول اثنان منها المخاوف التي ناقشناها مسبقًا، وهما: «(١) يجب ألا تُصمم الروبوتات كي تكون أسلحة، إلا لأسباب تتعلق بالأمن الوطني، (٤) الروبوتات مصنوعات يدوية؛ ومن ثَم لا ينبغي استخدام وهم المشاعر والنية لاستغلال المستخدمين الضعفاء».

حمَّل مبدآن آخَران البشر المسئولية الأخلاقية المباشرة إذا أفادا بأن: «(٢) البشر — وليس الروبوتات — هم المسئولون … (٥) يجب أن تتوفر إمكانية معرفة المسئول [قانونًا] عن أي روبوت». امتنعت المجموعة عن محاولة تحديث «القوانين الثلاثة للروبوتات» التي وضعها إسحاق عظيموف (يجب ألا يؤذي الروبوت الإنسان، ويحب أن يطيع أوامر الإنسان، ويحمي حياته ما لم يتعارض هذا مع القانون الأول). وتؤكد المجموعة على ضرورة أن يتبع المصمم/المطور البشري أي «قوانين» يُنص عليها هنا.

في مايو ٢٠١٤، أشادت وسائل الإعلام بمبادرة أكاديمية موَّلتها البحرية الأمريكية (بمبلغ ٧٫٥ ملايين دولار أمريكي لمدة خمس سنوات). وقد اشترك في هذا المشروع خمس جامعات (ييل وبراون وتافتس وجورج تاون ومعهد رينسيلار)، ويهدف إلى تطوير «الكفاءة الأخلاقية» في الروبوتات. كذلك يضم المشروع علماء في علم النفس الاجتماعي والمعرفي وفي الفلسفة الأخلاقية، وكذلك مبرمجين ومهندسين في الذكاء الاصطناعي.

لا تحاول هذه المجموعة المتعددة التخصصات أن تقدم قائمة بخوارزميات أخلاقية (مقارنة بقوانين عظيموف)، ولا أن ترتب أخلاقًا فوقية حسب الأولوية (مثل مذهب المنفعة)، ولا حتى أن تضع مجموعة من القيم الأخلاقية غير المتنافسة. بل ترجو أن يطوَّر نظام حاسوبي قادر على التفكير المنطقي الأخلاقي (والمناقشة الأخلاقية) في العالم الواقعي. فالروبوتات المستقلة ستتخذ قرارات تداولية في بعض الأحيان، ولن تتبع فقط التعليمات (غير أنها تتفاعل تفاعلًا غير مرن مع الإشارات الكائنة؛ انظر الفصل الخامس). إذا شارك الروبوت في عملية بحث وإنقاذ على سبيل المثال، فمن الذي ينبغي أن يخليه من المكان/ينقذه أولًا؟ أو إذا كان يقدم رفقة اجتماعية، فمتى ينبغي ألا يخبر مستخدمه الحقيقة إذا اقتضت الضرورة ذلك؟

سيدمج النظام المقترح الإدراك والعمل الحركي ومعالجة اللغات الطبيعية والتفكير المنطقي (سواء الاستنتاجي أو التماثلي) والعاطفة. تتضمن العاطفة التفكير العاطفي (الذي يمكن أن يشير إلى أحداث مهمة، وكذلك يُجدوِل الأهداف المتضاربة؛ انظر الفصل الثالث)، والعروض الروبوتية التي تُظهر «الاحتجاج والضيق» ما يمكن أن يؤثر في القرارات الأخلاقية التي يتخذها المتفاعل مع النظام، والتعرف على العواطف لدى البشر المحيطين بالروبوت. كذلك صرَّح الإعلان الرسمي أن الروبوت يمكن أن يتخطى حتى الحد العادي (أي البشري) في الكفاءة الأخلاقية.

بناءً على العقبات التي تقف أمام الذكاء الاصطناعي العام الواردة في الفصلين الثاني والثالث، بالإضافة إلى الصعوبات المتعلقة بالأخلاقيات على وجه التحديد (انظر الفصل السادس)، بمقدور المرء أن يشك في إمكانية تحقيق هذه المهمة. لكن قد يكون المشروع مفيدًا على الرغم من ذلك. بالتفكير في مشكلات العالم الواقعي (مثل المثالين المختلفين تمامًا الواردين فيما سبق)، فقد ينبِّهنا إلى العديد من مخاطر استخدام الذكاء الاصطناعي في المواقف ذات الإشكالية الأخلاقية.

بجانب هذه الجهود المؤسسية، يتزايد عدد فرادى علماء الذكاء الاصطناعي الذين يسعون إلى تحقيق ما يطلق عليه أليازر يودكوفسكي «الذكاء الاصطناعي الصديق». إنه ذكاء اصطناعي له تأثيرات إيجابية على البشر، فهو آمن ومفيد. يشتمل النظام على خوارزميات واضحة وموثوقة ودقيقة، وتفشل من دون ضرر إن حدث وفشلت. يجب أن تكون الخوارزميات شفافة، ويمكن التنبؤ بها، وليست عُرضة لأن يتلاعب بها المخترقون؛ وإذا أمكن إثبات موثوقيتها بالمنطق أو الرياضيات بدلًا من الاختبار التجريبي، فهذا أفضل بكثير.

تبرَّع ماسك بمبلغ ستة ملايين دولار أمريكي في اجتماع بورتوريكو؛ مما أدى إلى إعلان «دعوة للاقتراحات» غير مسبوق من معهد مستقبل الحياة (وبعد ستة أشهر، بلغ عدد المشروعات المموَّلة ٣٧ مشروعًا). باستهداف الخبراء في السياسة العامة والقانون والأخلاقيات والاقتصاد والتعليم والتواصل وكذلك الذكاء الاصطناعي، فقد طالب الاجتماع بالآتي: «أن تهدف المشروعات البحثية إلى رفع مستوى الفائدة الاجتماعية المستقبلية المرجوة من الذكاء الاصطناعي، وفي الوقت نفسه تجنب المخاطر المحتملة، والاقتصار على الأبحاث التي لا تركز صراحةً على الهدف القياسي، وهو رفع قدرات الذكاء الاصطناعي، بل تركز على رفع مستوى قوة الذكاء الاصطناعي وفائدته أو أحدهما». ربما حدث هذا النداء المرحب به للذكاء الاصطناعي الصديق على أي حال. لكن أثر التفرد كان واضحًا: «ستعطى الأولوية للأبحاث التي تهدف إلى الحفاظ على دقة الذكاء الاصطناعي وفائدته، حتى وإن وصل الأمر إلى إبطال قدر كبير من القدرات الحالية.»

باختصار، الرؤى شبه المروِّعة لمستقبل الذكاء الاصطناعي وهمية. ولكن جزءًا من أسبابها راجع إلى تنبُّه مجتمع الذكاء الاصطناعي وصناع السياسات وكذلك العامة إلى بعض المخاطر الحقيقية بالفعل. ينبغي التحرك الآن؛ إذ قد تأخَّرنا كثيرًا.

جميع الحقوق محفوظة لمؤسسة هنداوي © ٢٠٢٣