الفصل الثاني

كأن الذكاء العام هو الكأس المقدسة

ينطوي الذكاء الاصطناعي الحديث على العديد من الميزات. فهو يوفِّر كثيرًا من الأجهزة الافتراضية التي تُجري العديد من أنواع معالجة المعلومات. لا يوجد سر رئيسي هنا، ولا توجد تقنية أساسية توحِّد المجال؛ أي إن العاملين في الذكاء الاصطناعي يعملون في مجالات كثيرة التنوع، ولا يتشاركون سوى القليل من حيث الأهداف والطرق. ولا يذكر هذا الكتاب سوى نزر يسير من التطورات الحديثة. باختصار، نطاق مناهج الذكاء الاصطناعي واسع للغاية.

يمكن القول إن الذكاء الاصطناعي حقَّق نجاحات باهرة. فنطاق استخداماته أيضًا واسع للغاية. توجد مجموعة من تطبيقات الذكاء الاصطناعي المُصمَّمة لأداء عدد لا حصر له من المهام، وتلك التطبيقات يستخدمها الإنسان العادي والمحترف على حدٍّ سواء في كل مناحي الحياة. والعديد منها يتفوَّق على البشر حتى أكثرهم خبرة. ومن هذا المنطلَق، كان التقدم الذي حقَّقه الذكاء الاصطناعي رائعًا.

لكن لم يستهدف رواد الذكاء الاصطناعي الأنظمة المتخصِّصة فحسب. فقد كانوا يتطلعون إلى إنشاء أنظمة تمتاز بذكاء عام. وستواجه كل نماذج القدرات الشبيهة بقدرات الإنسان — الرؤية والتفكير المنطقي واللغة والتعلم وما إلى ذلك — مجموعة كاملة من التحديات. إضافة إلى ذلك، تتكامل تلك القدرات عندما تكون ملائمة.

بالحكم بناءً على تلك المعايير، فإن التقدم سيُثير الإعجاب بدرجة أقل بكثير. أدرك جون مكارثي حاجة الذكاء الاصطناعي إلى «منطق عقلاني» في وقت مبكِّر للغاية. وقد تحدث عن «الشمولية في الذكاء الاصطناعي» في الخطابين اللذين ألقاهما حين نال جائزة تورينج المرموقة في عامَي ١٩٧١ و١٩٨٧، لكن كان محتوى الخطابين شكوى وليس احتفالًا. وحتى عام ٢٠١٨، لم تُزَل أسباب شكاواه بعد.

يشهد القرن الحادي والعشرون عودة الاهتمام بالذكاء الاصطناعي العام؛ إذ تقوده التطورات الأخيرة في قدرات أجهزة الكمبيوتر. وإذا تحقَّق ذلك، فسيقلُّ اعتماد أنظمة الذكاء الاصطناعي على حِيَل البرمجة ذات الأغراض الخاصة، بل إنها ستستفيد من القدرات العامة للتفكير المنطقي والإدراك، بالإضافة إلى اللغة والإبداع والعاطفة (وكل ذلك تناولناه في الفصل الثالث).

لكن القول أسهل من الفعل. لا يزال الذكاء العام تحدِّيًا كبيرًا، ولا يزال بعيد المنال. الذكاء الاصطناعي العام هو الكأس المقدسة لذلك المجال.

أجهزة الكمبيوتر العملاقة ليست كافية

لا شك أن أجهزة الكمبيوتر العملاقة في الوقت الراهن تمثِّل يد العون لكل مَن يريد تحقيق هذا الحلم. الانفجار التوافقي يُطلَب فيه عدد عمليات حسابية أكثر مما تُنفَّذ بالفعل، ولكنه لم يعُد يمثِّل تهديدًا ثابتًا كما كان. ومع ذلك، المسائل لا تُحل دومًا بمجرد رفع قدرات الكمبيوتر.

كثيرًا ما يلزم توفير طرق جديدة لحل المسائل. إضافة إلى ذلك، إذا كانت هناك طريقة معيَّنة نجاحها مضمون من حيث المبدأ، فقد تحتاج قدرًا كبيرًا من الوقت والذاكرة أو أحدهما كي تنجح عمليًّا. وأوردنا ثلاثة أمثلة (بشأن الشبكات العصبية) في الفصل الرابع.

الكفاءة مهمة أيضًا؛ فكلما قلَّ عدد عمليات الحوسبة، كان ذلك أفضل. باختصار، يجب جعل المسائل سهلة الحل.

هناك عدة استراتيجيات لذلك. احتلَّت كل تلك الاستراتيجيات مركز الريادة في الذكاء الاصطناعي الرمزي الكلاسيكي — أو الذكاء الاصطناعي التقليدي الجميل — ولا تزال جميعها ضرورية في الوقت الراهن.

إحدى تلك الاستراتيجيات أن نوجِّه الانتباه إلى جزء واحد من «مساحة البحث» (تمثيل الكمبيوتر الخاص بالمسألة، وهو الذي من المفترض أن الحل موجود بداخله). استراتيجية أخرى، وهي أن نصغِّر مساحة البحث عن طريق تبسيط الافتراضات. استراتيجية ثالثة، وهي أن نرتِّب البحث ترتيبًا فعَّالًا. استراتيجية رابعة، وهي إنشاء مساحة بحث مختلفة عن طريق تمثيل المسألة بطريقة جديدة.

تتضمن تلك النُّهُج «الاستدلال والتخطيط والتبسيط الرياضي وتمثيل المعرفة» على التوالي. تتناول الأقسام الخمسة الآتية تلك الاستراتيجيات العامة للذكاء الاصطناعي.

البحث الاستدلالي

لفظة Heuristic (الاستدلال) تنحدر من أصل واحد، مثل لفظة Eureka! (وجدتها!) إنها تنحدر من اللغة اليونانية، وتعني «وجد» أو «اكتشف». برز الاستدلال في مجال الذكاء الاصطناعي التقليدي الجميل المبكِّر، وكثيرًا ما يُعتقد أنه عبارة عن «حِيَل برمجية». ولكن لم يتأصَّل المصطلح مع البرمجة، بل إنه معروف منذ وقت طويل بين أوساط علماء المنطق وعلماء الرياضيات.

الاستدلال يسهِّل حل المسألة، سواء مع البشر أو الآلات. وفي الذكاء الاصطناعي، يسهل حل المسألة بتوجيه البرنامج صوب أجزاء معيَّنة من مساحة البحث وإبعاده عن أجزاء أخرى.

العديد من عمليات الاستدلال — بما في ذلك العمليات التي استُخدمت في أوائل اختراع الذكاء الاصطناعي — عبارة عن قواعد عامة؛ ومن ثَم لا يُضمَن نجاحها. ربما يكمُن الحل في جزء من مساحة البحث، وقد وجَّه الاستدلال النظام إلى أن يتجاهل ذلك الجزء. على سبيل المثال، «حماية الملكة» قاعدة مفيدة للغاية في الشطرنج، ولكن ينبغي مخالفتها في بعض الأحيان.

ربما تثبت ملاءمة قواعد أخرى من حيث المنطق أو الرياضيات. يهدف قدرٌ كبير من العمل في الذكاء الاصطناعي وعلوم الكمبيوتر اليوم إلى تحديد خصائص يمكن إثبات صحتها في البرامج. هذا جانب من «الذكاء الاصطناعي الصديق»؛ لأنه يُمكِن أن تتعرَّض سلامة البشر إلى الخطر إن استُخدمت أنظمة غير موثوقة منطقيًّا (انظر الفصل السابع).

سواء كان النظام موثوقًا أم لا، فالاستدلال جانب ضروري في البحوث الخاصة بالذكاء الاصطناعي. تعتمد زيادة التخصصية في الذكاء الاصطناعي المذكورة فيما سبق اعتمادًا جزئيًّا على تعريف الاستدلال الجديد الذي يُمكِن أن يحسِّن الكفاءة بدرجة مذهلة، ولكن لا يحدث هذا إلا في مسألة — أو مساحة بحث — تتسم بدرجة تقييد عالية. الاستدلال ذو النجاح الباهر قد لا يكون مناسبًا كي «تقترضه» برامج أخرى تعمل بالذكاء الاصطناعي.

واستنادًا إلى عدة استدلالات، فقد يكون ترتيب تطبيقها مهمًّا. على سبيل المثال، يجب أن تؤخذ «حماية الملكة» في الاعتبار قبل «حماية البيدق»، على الرغم من أن هذا الترتيب قد يؤدي إلى كارثة في بعض الأحيان. عمليات الترتيب المختلفة ستؤدي إلى أشجار بحث مختلفة عَبْر مساحة البحث. لذا فإن تحديد الاستدلالات وترتيبها من المهمات البالغة الأهمية في الذكاء الاصطناعي الحديث. (الاستدلال جزء بارز في علم النفس المعرفي أيضًا. يوضح العمل الرائع في «الاستدلال السريع والمقتصد» على سبيل المثال إلى أي مدًى زودَنا التطور بطُرق فعَّالة في الاستجابة للبيئة).

الاستدلال يجعل البحث بالقوة عَبْر مساحة البحث بالكامل غير ضروري. ولكنه مصحوب في بعض الأحيان بعمليات بحث بالقوة، وإن كانت محدودة. برنامج الشطرنج «ديب بلو» من شركة «آي بي إم» أسعد العالم لمَّا هزم بطل العالم في الشطرنج جاري كاسبروف عام ١٩٩٧، وقد استخدم رقائق أجهزة دقيقة تعالج ٢٠٠ مليون موضع في الثانية؛ ومن ثَم يولِّد كل حركة محتملة للثمانية المقبلة.

ومع ذلك، اضطر إلى استخدام الاستدلال لتحديد «أفضل» حركة من بين الثمانية. وبما أنه لا يمكن الاعتماد على الاستدلال، لم يتمكن حتى برنامج «ديب بلو» من هزيمة كاسبروف في كل مرة.

التخطيط

التخطيط أيضًا جزء بارز في الذكاء الاصطناعي اليوم، كما أنه أصبح واسع الانتشار لا سيما في الأنشطة العسكرية. كانت وزارة الدفاع الأمريكية تموِّل الجزء الأكبر من بحوث الذكاء الاصطناعي حتى وقت قريب، وقالت إن الأموال التي وفَّرتها (بفضل تخطيط الذكاء الاصطناعي) في لوجستيات المعركة في حرب العراق الأولى فاقت كل الاستثمارات السابقة.

لا يقتصر التخطيط على الذكاء الاصطناعي، بل جميعنا يستخدمه. لنضرب مثالًا بحزم الأمتعة للخروج في إجازة. يجب العثور على جميع الأغراض التي تريد أخذها، وربما لن تعثر عليها في مكان واحد. كذلك قد تُضطر إلى شراء بعض الأغراض الجديدة (مثل كريم واقٍ من أشعة الشمس). يجب أن تقرِّر هل ستجمع الأغراض كلها في مكان واحد (كأن تجمعها على السرير أو الطاولة)، أم ستضع العنصر الذي تعثر عليه في حقيبة الأمتعة. سيعتمد هذا القرار جزئيًّا على ما إذا كنت تريد أن تجعل الملابس آخر الأغراض لمنع تجعيدها. ستحتاج إلى حقيبة ظهر أو حقيبة سفر أو ربما حقيبتين؛ كيف ستقرِّر؟

كانت تلك الأمثلة المدروسة بوعي في عقل مُبرمِجي الذكاء الاصطناعي التقليدي الجميل؛ إذ اتخذوا التخطيط أسلوبًا من أساليب الذكاء الاصطناعي. يرجع السبب في ذلك إلى أن الرواد المسئولين عن آلة النظرية المنطقية (انظر الفصل الأول) وآلة حل المسائل العامة كانوا مهتمين في الأساس بعلم النفس المعني بالتفكير البشري.

لا تعتمد أدوات التخطيط الحديثة ذات الذكاء الاصطناعي اعتمادًا كبيرًا على الأفكار التي يولدها الاستبطان الواعي أو الملاحظة التجريبية. وخُططهم معقَّدة أكثر ممَّا كان محتملًا في بادئ الأمر. ولكن الفكرة الأساسية واحدة.

تحدِّد الخطة سلسلة من الإجراءات الممثلة على المستوى العام وهدفًا نهائيًّا، بالإضافة إلى أهداف فرعية وأهداف متفرِّعة من الأهداف الفرعية؛ ومن ثَم لا تُدرس كافة التفاصيل مرة واحدة. التخطيط في مستوى التجرد الملائم يمكن أن يؤدي إلى تشذيب الشجرة داخل مساحة البحث؛ ومن ثَم لا نحتاج بتاتًا إلى دراسة بعض التفاصيل. وفي بعض الأحيان يكون الهدف النهائي نفسه خطة عملية؛ فقد يتمثَّل في خطط عمليات التسليم إلى المصنع أو أرض المعركة ومنهما. وفي أوقات أخرى، يتمثل في إجابة عن سؤال، مثل التشخيصات الطبية.

بالنسبة إلى أي هدف محدَّد ومواقف مُتوقَّعة، يحتاج برنامج التخطيط إلى ما يأتي: قائمة الإجراءات، وهي المعاملات الرمزية أو أنواع الإجراءات (الممثلة باستيفاء المعلمات المشتقة من المسألة)، وكل إجراء قد يُحدِث بعض التغييرات ذات الصلة؛ ومجموعة المتطلبات الأساسية لكل إجراء (كي تقارن لفهم شيء ما، يجب أن يكون سهل المنال)؛ والاستدلالات لتحديد أولويات التغييرات المطلوبة وترتيب الإجراءات. إذا قرَّر البرنامج اتخاذ إجراء مُعيَّن، فقد يُضطر إلى تعيين هدف فرعي جديد كي يلبِّي المتطلبات الأساسية. يمكن تكرار عملية صياغة الأهداف مرارًا وتكرارًا.

التخطيط يمكِّن البرنامج — والمستخدِم البشري — من اكتشاف الإجراءات التي اتُّخذت بالفعل وسبب اتخاذها. يشير «السبب» إلى التسلسل الهرمي للهدف؛ اتُّخذ «هذا» الإجراء لتلبية «ذلك» المطلب الأساسي لتحقيق الهدف الفرعي «كذا وكذا». وبوجه عام، توظف أنظمة الذكاء الاصطناعي تقنيات «التسلسل الأمامي» و«التسلسل العكسي» التي تشرح كيف عثر البرنامج على الحل. هذا يساعد المستخدم على أن يحكم هل الإجراء/المشورة من البرنامج ملائم أم لا.

تمتلك بعض أدوات التخطيط الحالية عشرات الآلاف من سطور التعليمات البرمجية؛ إذ تُحدد مساحات البحث الهرمية على عدد هائل من المستويات. وتلك الأنظمة غالبًا ما تكون مختلفة كثيرًا عن أدوات التخطيط الأولى.

على سبيل المثال، معظم تلك الأدوات لا تفترض أنه يمكن العمل على الأهداف الفرعية كلٌّ على حِدَة (بمعنى أن المسائل قابلة للتجزئة إلى أجزاء فرعية كثيرة). ولكن في الحياة الواقعية، قد لا تتحقَّق نتيجة نشاط موجه حسب الهدف بسبب نشاط آخَر. أما اليوم، فتستطيع أدوات التخطيط التعامل مع المسائل القابلة للتجزئة جزئيًّا؛ إنها تعمل على الأهداف الفرعية كلٌّ على حِدَة، ولكنها تجري معالجة إضافية لدمج الخطط الفرعية الناتجة إذا لزم الأمر.

لا تستطيع أدوات التخطيط الكلاسيكية التعامل إلا مع المسائل التي تكون بيئتها قابلة للرصد بالكامل وحتمية ومحدَّدة وثابتة. ولكن بعض أدوات التخطيط الحديثة يمكن أن تتماشى مع البيئات القابلة للرصد جزئيًّا (أي إن نموذج النظام للعالم قد يكون غير مكتمل أو غير صحيح أو كليهما) والاحتمالية. في تلك الحالات، يجب أن يرصد النظام الموقف المتغيِّر أثناء التنفيذ، بحيث يجري التغييرات في الخطة — وفي «معتقداتها» بشأن العالم — حسب الحاجة. يمكن لبعض أدوات التخطيط الحديثة أن تفعل ذلك على مدار فترات طويلة، إنها تدخل في عملية متواصلة لتكوين الأهداف وتنفيذها وتعديلها والتخلِّي عنها تكيُّفًا مع البيئة المتغيرة.

أُضيفت العديد من عمليات التطوير الأخرى إلى التخطيط الكلاسيكي، ولا تزال تضاف التطويرات. إذَن، قد يكون مفاجئًا أن التخطيط رفضه بعض مُصمِّمي الروبوتات رفضًا صريحًا في ثمانينيات القرن العشرين؛ ومن ثَم تمَّت التوصية بالروبوتات «الكائنة» بدلًا من ذلك (انظر الفصل الخامس). وكذلك رُفضت فكرة التمثيل الداخلي، مثل رفض الأهداف والإجراءات المحتملة. ولكن كان هذا النقد خاطئًا إلى حدٍّ كبير. غالبًا ما تحتاج الروبوتات إلى التخطيط بالإضافة إلى الإجابات التفاعلية الخالصة، مثل بناء روبوتات تلعب كرة القدم.

التبسيط الرياضي

لما كان الاستدلال يترك مساحة البحث كما هي (بأن يجعل البرنامج لا يركِّز إلا على جزء منها)، فإن تبسيط الافتراضات يبني مساحةَ بحثٍ غير واقعية، ولكن يُمكِن حلها من منظور الرياضيات.

بعض تلك الافتراضات رياضية. من الأمثلة على ذلك افتراض «المتغيرات المستقلة ومتشابهة التوزيع» المستخدمة في تعلم الآلة. وهذا يمثِّل الاحتمالات في البيانات وكأنها أبسط بكثير مما هي عليه في الواقع.

تكمُن مِيزة التبسيط الرياضي عند تحديد مساحة البحث في إمكانية استخدام الطرق الرياضية؛ أي إنه يمكن تحديدها بوضوح ويسهل فهمها على الأقل بالنسبة إلى علماء الرياضيات. ولكن هذا لا يعني أن أي بحث محدَّد رياضيًّا سيكون مفيدًا. وكما أشرنا مسبقًا، قد تكون الطريقة المضمونة رياضيًّا لحل كل مسألة ضمن فئة معيَّنة غير قابلة للاستخدام في الحياة الواقعية؛ لأنها قد تحتاج وقتًا غير محدود لحلها. ولكن قد تقترح حلولًا تقريبية عملية أكثر؛ انظر مناقشة «الانتشار العكسي» في الفصل الرابع.

افتراضات التبسيط غير الرياضية في الذكاء الاصطناعي كثيرة للغاية، ولكن غالبًا ما يُسكت عنها. ومن الأمثلة على ذلك الافتراض (الضمني) بأنه يمكن تحديد المسائل وحلها من دون أخذ العاطفة في الاعتبار (انظر الفصل الثالث). والعديد من الافتراضات الأخرى داخلة في تمثيل المعرفة العام المستخدم في تحديد المهمة.

تمثيل المعرفة

غالبًا ما يكون الجزء الأصعب في حل مسألة الذكاء الاصطناعي هو عرض المسألة على النظام للمرة الأولى. حتى إذا بدا أن أحدًا يستطيع التواصل مع برنامج مباشرةً، ربما بالتحدث بالإنجليزية إلى «سيري»، أو بالكتابة بالفرنسية في محرك البحث جوجل، فلا يمكنه التواصل معه. وسواء كان الشخص يتعامل مع نصوص أو مع صور، فإنه يجب عرض المعلومات (المعرفة) المعنية على النظام بطريقة تفهمها الآلة؛ أو بعبارة أخرى، بطريقة تمكِّن الآلة من التعامل معها. (وما إذا كان ذلك الفهم حقيقيًّا أم لا، فقد تناولناه في الفصل السادس).

الطرق التي يفهم بها الذكاء الاصطناعي المعلومات كثيرة ومتنوعة. بعضها عبارة عن تطويرات/تباينات في الطرق العامة لتمثيل المعرفة المقدم في الذكاء الاصطناعي التقليدي الجميل. وهناك طرق أخرى ذات درجة تخصُّص عالية، وهي مصمَّمة خصوصًا لفئة محدودة من المسائل. على سبيل المثال، قد توجد طريقة جديدة لتمثيل صور الأشعة السينية أو الصور الفوتوغرافية لفئة معيَّنة من الخلايا السرطانية؛ ومن ثَم فهي تُصمَّم بعناية لتوفير طريقة ذات درجة تخصُّص عالية في التفسيرات الطبية (ومن ثَم لا تصلح للتعرف على صور القطط أو حتى عمليات المسح باستخدام التصوير المقطعي المحوسب).

في البحث عن الذكاء الاصطناعي العام، تمثل الأساليب العامة أهميةً قصوى. استندت تلك الأساليب في البداية إلى بحث نفسي عن الإدراك البشري، وتلك الأساليب تتضمن ما يأتي: مجموعات من القواعد «الشرطية»، وتمثيلات المفاهيم الفردية، وسلاسل الإجراءات النمطية، والشبكات الدلالية، والاستدلال بالمنطق أو الاحتمال.

لندرس كل أسلوب على حِدَة. (هناك شكل آخَر من تمثيل المعرفة يُسمَّى الشبكات العصبية، وسنتناوله في الفصل الرابع).

البرامج القائمة على القواعد

في البرمجة القائمة على القواعد، تُمثَّل مجموعة المعرفة/المعتقد في صورة قواعد «شرطية» تربط فعل الشرط بجواب الشرط: إذا تحقَّق هذا الشرط، فاتخذْ هذا الإجراء. يستند هذا الشكل من تمثيل المعرفة إلى المنطق الصوري (أنظمة إنتاج إيميل بوست). ولكن روَّاد الذكاء الاصطناعي ألين نيويل وهيربرت سيمون يعتقدان أن هذا الشكل يمثِّل أساس الجانب النفسي لدى الإنسان بوجه عام.

قد يكون كلٌّ من فِعل الشرط وجواب الشرط مُعقَّدين؛ وهو ما يؤدي إلى تحديد ارتباط (أو فصل) بعض العناصر أو ربما العديد من العناصر. وإذا تحقَّقت بعض أفعال الشرط في آنٍ واحد، فستُعطى الأولوية لأشمل ارتباط. لذا، سيحتل فعل الشرط «إذا كان الهدف طهي لحم بقري مشوي وبودينج يوركشاير» الصدارةَ على فعل الشرط «إذا كان الهدف طهي لحم بقري مشوي»، كما أن إضافة «وإضافة ثلاثة أنواع من الخضراوات» إلى فعل الشرط سيجعله يعلو.

البرامج القائمة على القواعد لا تحدِّد ترتيب الخطوات مقدَّمًا. بل إن كل قاعدة تنتظر حتى يحفزها فعل الشرط. ومع ذلك، يمكن استخدام تلك الأنظمة لوضع الخطط. وإذا لم تُستخدم في ذلك، فسينحسر استخدامها في الذكاء الاصطناعي. ولكنها تؤدي تلك المهمة بطريقة مختلفة عن الطريقة القديمة والمعتادة في البرمجة (ويُطلَق عليها في بعض الأحيان «التحكم التنفيذي»).

في البرامج ذات التحكم التنفيذي، تُمثَّل الخطط صراحةً. يحدِّد المبرمِج سلسلة من التعليمات الموصلة إلى الهدف حتى تُتبع خطوةً بخطوة، وبترتيب زمني صارم: «افعل كذا ثم كذا، ثم انظر هل س صحيحة أم لا، وإذا كانت صحيحة فافعل كذا وكذا، وإذا لم تكُن صحيحة فافعل كذا وكذا».

في بعض الأحيان، تكون «كذا» أو «كذا وكذا» تعليمات صريحة لتعيين هدف أساسي أو هدف فرعي. على سبيل المثال، الروبوت المُعيَّن له هدف مغادرة الغرفة يمكن ضبط تعليماته لتعيين هدف فرعي، وهو فتح الباب؛ ثم إذا نتج عن فحص الحالة الحالية أن الباب مُغلَق، فسيتعيَّن هدف مُتفرِّع عن الهدف الفرعي، وهو جذب مقبض الباب. (الطفل البشري قد يحتاج إلى هدف مُتفرِّع عن الهدف المُتفرِّع عن الهدف الفرعي؛ أي يطلب من شخص كبير أن يجذب مقبض الباب الذي لا يستطيع الوصول إليه، وقد يحتاج الرضيع إلى عدة أهداف بمستويات أقل من أجل الوصول إلى هذا الهدف).

يمكن للبرنامج القائم على القواعد أن يفكِّر أيضًا في طريقة للهروب من الغرفة. لكن قد لا يُمثَّل التسلسل الهرمي للخطة في سلسلة خطوات صريحة ذات ترتيب زمني، بل في صورة بنية منطقية «ضمنية» في مجموعة من القواعد «الشرطية» التي يتألَّف منها النظام. وقد يتطلَّب فعل الشرط تعيين الهدف كذا بالفعل (إذا أردت أن تفتح الباب، ولست بالطول الكافي). وبالمثل، قد يتضمن جواب الشرط تعيين هدف رئيسي أو هدف فرعي جديد (فاطلب من أحد الكبار). ستُنشَّط المستويات الدنيا تلقائيًّا (إذا أردت أن تطلب من أحد أن يفعل لك شيئًا، فعيِّن هدف الاقتراب منه).

بالطبع، يجب على المبرمِج إدراج كل القواعد «الشرطية» ذات الصلة (في المثال الذي معنا، تتعامل القواعد مع الأبواب ومقابض الأبواب). لكنه لا يحتاج إلى توقُّع كل التعقيدات المنطقية المحتملة لتلك القواعد. (هذه نقمة ونعمة في الوقت نفسه؛ لأنه قد تظل التناقضات المحتملة غير مكتشَفة لوقت طويل).

تُنشر الأهداف الرئيسية/الفرعية النشطة على «لوحة» مركزية يسهل على النظام بأكمله الوصول إليها. لا تتضمن المعلومات الظاهرة على اللوحة الأهداف النشطة فحسب، بل تتضمن المدخلات الإدراكية والأنماط الأخرى للمعالجة الحالية. (أثَّرت تلك الفكرة في النظرية العصبية النفسية الرائدة الخاصة بالوعي، وكذلك نموذج الذكاء الاصطناعي للوعي القائم على تلك النظرية؛ انظر الفصل السادس).

شاع استخدام البرامج القائمة على القواعد في «الأنظمة الخبيرة» الرائدة في أوائل سبعينيات القرن العشرين. من تلك الأنظمة «ميسين» (MYCIN)، وكان يقدم المشورة للأطباء لتحديد الأمراض المُعدِية ووصف المضادات الحيوية؛ ونظام «دندرال» (DENDRAL) الذي يُجري تحليلًا طيفيًّا للجزيئات داخل مساحة مُعيَّنة من الكيمياء العضوية. على سبيل المثال، يُجري نظام «ميسين» التشخيص الطبي عن طريق مطابقة الأعراض والخصائص الجسدية الأساسية (فعل الشرط) للخروج بنتائج التشخيص واقتراح المزيد من الاختبارات أو الأدوية (جواب الشرط). كانت تلك البرامج هي الخطوة الأولى التي نأى بها الذكاء الاصطناعي عن أمل التعميم واقترب بها إلى التخصيص. كذلك كان البرنامجان الخطوة الأولى نحو حلم آدا لافليس بالعلوم التي تصنعها الآلة (انظر الفصل الأول).

شكل تمثيل المعرفة القائم على القواعد يمكِّن من بناء البرامج تدريجيًّا؛ حيث إن المبرمج — أو ربما نظام الذكاء الاصطناعي العام نفسه — يتعلَّم المزيد عن النطاق. يمكن إضافة قاعدة جديدة في أي وقت. ومن ثَم لا يلزم كتابة البرنامج من البداية. لكن هناك مشكلة خفية. إذا لم تتسق القاعدة الجديدة مع القواعد الموجودة بالفعل، فلن يقوم النظام بالإجراء المفترض على الدوام. وربما لا «يقرِّب» الإجراء المفترض أن يؤديه. وعند التعامل مع مجموعة صغيرة من القواعد، يسهل تجنب تلك التناقضات المنطقية، ولكن الأنظمة الأكبر أقل شفافية.

في سبعينيات القرن العشرين، استُمدت القواعد «الشرطية» الجديدة من المحادثات الجارية مع الخبراء من البشر ممَّن طُلب منهم شرح قراراتهم. واليوم، لا يُستمد العديد من القواعد من الاستبطان الواعي. ولكنها تتسم بفاعلية أكبر. تتراوح الأنظمة الخبيرة الحديثة (وهذا المصطلح نادر الاستخدام اليوم) ما بين البرامج المستخدمة في البحوث العلمية والتجارة حتى التطبيقات المتواضعة على الهواتف. يتفوَّق العديد من تلك التطبيقات على التطبيقات السابقة؛ لأنها تستفيد من الأشكال الإضافية لتمثيل المعرفة، مثل الإحصاءات وأدوات التعرُّف البصرية ذات الأغراض الخاصة واستخدام البيانات الضخمة أو أيٍّ من ذلك (انظر الفصل الرابع).

بإمكان تلك البرامج أن تساعد الخبراء من البشر أو حتى أن تحل محلهم في مجالات بالغة التقييد. وفي الوقت الراهن، هناك أمثلة لا حصر لها؛ إذ تُستخدم البرامج لمساعدة المحترفين العاملين في العلوم والطب والقانون … وحتى تصميم الملابس. (وتلك الأخبار ليست جديدة تمامًا؛ انظر الفصل السابع).

الأُطُر، متجهات الكلمات، البرامج النصية، الشبكات الدلالية

هناك طرق أخرى شائعة في تمثيل المعرفة تهتم بالمفاهيم الفردية، وليس بالنطاقات بأكملها (مثل التشخيص الطبي أو تصميم الملابس).

على سبيل المثال، يستطيع المرء أن يُخبر الكمبيوتر ما هي الغرفة، بتحديد بنية بيانات تسلسلية (تُسمَّى في بعض الأحيان بالإطار). وهذا يمثِّل الغرفة بأن لها «أرضية وسقفًا وجدرانًا وأبوابًا ونوافذ وأثاثًا (سريرًا وحمامًا ومائدة طعام)». الغُرف الحقيقية تتفاوت في عدد الجدران والأبواب والنوافذ؛ ومن ثَم تركُ «فراغات» في الإطار يتيح كتابة أرقام مُعيَّنة وكذلك تقديم تعيينات افتراضية (أربعة جدران، باب واحد، نافذة واحدة).

بِنى البيانات هذه يمكن أن يستخدمها الكمبيوتر للبحث عن الأدوات المماثلة أو الرد عن الأسئلة أو المشاركة في محادثة أو كتابة قصة أو فهمها. إنها أساس برنامج سي واي سي (CYC): إنه برنامج طموح — ويقول البعض إنه مُفرِط في الطموح — إذ يحاول أن يمثِّل المعارف البشرية.

لكن الأُطُر قد تكون مُضلِّلة. تنطوي التعيينات الافتراضية على سبيل المثال على إشكاليات. (بعض الغُرف ليس فيها نوافذ، والغرفة المكشوفة ليس لها باب). الأسوأ من ذلك، ماذا عن المفاهيم اليومية مثل «السقوط» أو «الانسكاب»؟ يمثِّل الذكاء الاصطناعي الرمزي معرفتنا المنطقية «للفيزياء المفرطة في البساطة» عن طريق بناء أُطُر تحوِّل تلك الحقائق إلى رموز، مثل حقيقة أن الجسم المادي سيسقط إذا لم يكُن مدعومًا. ولكن لن يسقط بالون الهيليوم. والسماح صراحةً لتلك الحالات مهمة لا تنقطع أبدًا.

في بعض التطبيقات التي تستخدم التقنيات الحديثة للتعامل مع البيانات الضخمة، يمكن تمثيل مفهوم مفرد في صورة مجموعة — أو «سحابة» — تتألف من مئات أو آلاف المفاهيم التي تكون مرتبطة في بعض الأحيان، مع تمييز احتمالات العديد من الارتباطات المزدوجة؛ انظر الفصل الثالث. وبالمثل، يمكن تمثيل المفاهيم الآن باستخدام «متجهات الكلمات» بدلًا من الكلمات. وهنا، يكتشف نظام (التعلم العميق) السمات الدلالية التي تساهم في العديد من المفاهيم المختلفة وتربطها بعضها ببعض، كما أن النظام يتنبَّأ بالكلمة التالية، مثلما يحدث في الترجمة الآلية على سبيل المثال. ومع ذلك، يتعذَّر استخدام هذه التمثيلات حتى الآن في التفكير المنطقي أو المحادثة، مثل الإطارات الكلاسيكية.

تشير بعض بِنى البيانات (وتُسمَّى البرامج النصية) إلى سلاسل الإجراءات المألوفة. على سبيل المثال، غالبًا ما يتضمن وضع الطفل في السرير لفه في الملابس وقراءة قصة وغناء أغنية له من أجل تهدئته وتشغيل الإنارة الليلية. يمكن استخدام بِنى البيانات تلك في الإجابة عن الأسئلة، بل لاقتراح أسئلة أيضًا. إذا أسقطت الأم الإنارة الليلية، فيمكن إثارة أسئلة من قبيل «لماذا؟» و«ما الذي حدث بعد ذلك؟» بعبارة أخرى، هنا تكمن بذرة القصة. ومن ثَم، هذا الشكل من تمثيل المعرفة يُستخدم لكتابة القصص تلقائيًّا، وربما يكون ضروريًّا لأجهزة الكمبيوتر «المرافقة» القادرة على الدخول في المحادثات العادية مع البشر (انظر الفصل الثالث).

الشبكات الدلالية من الأشكال البديلة لتمثيل المعرفة الخاصة بالمفاهيم (وهي عبارة عن شبكات محلية؛ انظر الفصل الرابع). في ستينيات القرن العشرين، كان روس كويليان رائدًا في هذا الشكل واتخذه نماذج للذاكرة الترابطية لدى البشر، وتتوفَّر الآن العديد من الأمثلة المكثفة (مثل برنامج «ووردنت») باعتبارها موارد عامة للبيانات. تربط الشبكة الدلالية المفاهيم بواسطة العلاقات الدلالية مثل «الترادف والتضاد والتبعية والشمول والعلاقة بين الجزء والكل»، كما تربطها كثيرًا عن طريق العلاقات الترابطية التي تضم المعارف الواقعية للعالم وصولًا إلى الدلالات (انظر الفصل الثالث).

يمكن للشبكة أن تمثِّل الكلمات وكذلك المفاهيم عن طريق إضافة روابط ترميز لكلٍّ من «المقاطع والحروف الأولية والصوتيات والمتجانسات». هذه الشبكة استخدمها نظام جيب JAPE الذي صمَّمته كيم بينستيد، وبرنامج ستاند أب STAND UP الذي صمَّمه جرايم ريتشي، ويولد نكات (من تسعة أنواع مختلفة) بناءً على التورية والجناس وتبديل المقاطع. على سبيل المثال: س: «ماذا تسمي القطار المكتئب؟» «ج: قاطرة تعيسة»؛ س: ما الذي سينتج عن التزاوج بين نعجة وكنغر؟ ج: قفاز صوفي.
تنبيه: الشبكة الدلالية ليست مماثلة للشبكات العصبية. كما سنرى في الفصل الرابع، تمثل الشبكات العصبية الموزعة المعرفة بطريقة مختلفة تمامًا. في تلك الشبكات، لا تمثَّل المفاهيم الفردية بعقدة مفردة في شبكة ترابطية محددة بعناية، بل باستخدام نمط يغير النشاط عبر الشبكة بالكامل. تلك الأنظمة يمكن أن تتحمل تضارب الأدلة؛ ومن ثَم لا تعرقلها مشكلات الحفاظ على الاتساق المنطقي (وهذا ما سنوضحه في القسم الآتي). ولكنها لا تقدم استدلالات دقيقة. وعلى الرغم من ذلك، فهي نوع مهم للغاية في تمثيل المعرفة (وأساسٌ بالغ الأهمية للتطبيقات العملية)، وتستحق أن نُفرِد لها فصلًا.

المنطق وشبكة الويب الدلالية

إذا كان الهدف النهائي لشخصٍ ما هو الذكاء الاصطناعي العام، فيبدو أن المنطق هو أنسب اختيار ليصير تمثيلًا معرفيًّا. فالمنطق يمكن تطبيقه بوجه عام. ومن حيث المبدأ، يمكن استخدام التمثيل نفسه (الرمزية المنطقية نفسها) لكلٍّ من الرؤية والتعلم واللغة وغيرها، وأي تكامل متعلِّق بما سبق. إضافة إلى ذلك، يوفِّر هذا التمثيل طرقًا قوية لإثبات النظريات من أجل التعامل مع المعلومات.

هذا يفسِّر لماذا كانت طريقة التمثيل المعرفي المفضلة في بدايات الذكاء الاصطناعي هي حساب التفاضل والتكامل المُسند. وهذا الشكل من المنطق له قوة تمثيلية أكبر من منطق القضايا؛ لأنه يمكن أن يتغلغل في الجمل للتعبير عن معانيها. على سبيل المثال، فكر في الجملة الآتية: «هذا المتجر عنده قبعة تُناسب الجميع». حساب التفاضل والتكامل المُسند يمكن أن يميز بين المعاني الثلاثة المحتملة بوضوح كما يأتي: «بالنسبة إلى كل إنسان، يوجد في المتجر قبعة تُناسبه»، و«يوجد في هذا المتجر قبعة يمكن أن يتفاوت مقاسها بحيث تناسب أي إنسان»، و«يوجد في هذا المتجر قبعة [على افتراض أنها مطوية!] بمقاس كبير لدرجة أنها تسع جميع البشر في آنٍ واحد».

في رأي العديد من الباحثين في الذكاء الاصطناعي، لا يزال المنطق الإسنادي هو النهج المفضَّل. إطارات برنامج «سي واي سي» على سبيل المثال قائمة على المنطق الإسنادي. وكذلك تمثيلات معالجة اللغات الطبيعية في دلالات التراكيب (انظر الفصل الثالث). في بعض الأحيان، يمد المنطق الإسنادي أذرعه بحيث يمثل الوقت أو السبب أو الواجب/الأخلاق. بالطبع هذا يعتمد على ما إذا كان الشخص قد طوَّر تلك الأشكال من منطق الموجهات أم لا؛ وهذا الأمر ليس سهلًا.

لكن المنطق له عيوب أيضًا. ومن تلك العيوب الانفجار التوافقي. كثيرًا ما يستخدم المنطق طريقة «القرار»، حيث إن إثبات النظرية المنطقية قد يترسَّخ في استخلاص الاستنتاجات الصحيحة، ولكنها غير مرتبطة بعضها ببعض. يوجد الاستدلال من أجل توجيه الاستنتاجات وتقييدها، ومن أجل تحديد متى ينبغي الإقلاع (وهذا ما لم يستطِع صبي الساحر أن يفعله حين استحضر الجن ولم يستطِع صرفه). لكن الاستدلال ليس مكفول النجاح.

عيب آخَر، وهو أن إثبات نظرية القرار يفترض أن «نفي النفي إثبات». إذا كان النطاق الذي يجري التفكير فيه مفهومًا تمامًا، فهذا صحيح منطقيًّا. لكنَّ مستخدمي البرامج (مثل كثير من الأنظمة الخبيرة) المزوَّدين بقرار مدمج كثيرًا ما يفترضون أن عدم العثور على الضد يعني عدم وجود الضد، وهو ما يُسمَّى «النفي بالفشل». وعادةً ما يكون هذا خطأً. في الحياة الواقعية، هناك فرق كبير بين إثبات أن الشيء مزيف والفشل في إثبات صحته (فكر في السؤال عمَّا إذا كان شريكك يخونك أم لا).

عيب ثالث، وهو أنه في المنطق الكلاسيكي (الرتيب)، بمجرد أن تثبت صحة شيء ما، فإنه يظل صحيحًا. وعمليًّا، لا يبقى شيء صحيح على الدوام. قد يقبل المرء «س» لسبب وجيه (ربما كان تكليفًا افتراضيًّا أو حتى استنتاجًا من حجة دقيقة ودليل دامغ أو أحدهما)، ولكن قد يتبيَّن فيما بعدُ أن «س» لم تعُد صحيحة، أو لم تكُن صحيحة منذ البداية. وإذا كان الأمر كذلك، فلا بد للمرء أن يفنِّد معتقداته وفقًا لذلك. بناءً على تمثيل المعرفة القائم على المنطق، فالقول أسهل من الفعل. حاول العديد من الباحثين — استلهامًا من مكارثي — أن يطوِّروا منطقًا «غير رتيب» يمكن أن يسع قِيَم الحقيقة المتغيرة. وبالمثل، حدَّد الناس العديد من أنواع المنطق «الضبابي»، حيث يمكن تسمية العبارة بأنها «محتملة/غير محتملة» أو «غير معروفة» بدلًا من «صحيحة/خاطئة». وعلى الرغم من ذلك، لم توجد آلية دفاع موثوقة ضد الرتابة.

يجد الباحثون في الذكاء الاصطناعي الذين يُطوِّرون تمثيل المعرفة القائم على المنطق في البحث عن الذرات النهائية للمعرفة — أو المعنى — بوجه عام. إنهم ليسوا الأوائل؛ مكارثي وهايز فعلا ذلك في «بعض المسائل الفلسفية من منظور الذكاء الاصطناعي». تناولت تلك الورقة البحثية الأولى العديد من الأحجيات المعروفة، بدايةً من الإرادة الحرة وحتى الأشياء غير الواقعية. تضمَّنَت تلك الأحجيات أسئلة عن الكينونة الأصلية للكون؛ إذ تتضمن الحالات والأحداث والخصائص والتغيرات والإجراءات … ماذا؟

إذا لم يكُن المرء محبًّا لعلم ما وراء الطبيعة من صميم قلبه (شغف نادر بين البشر)، فلماذا يهتم المرء؟ ولماذا «تزيد وتيرة» السعي وراء الإجابة على تلك الأسئلة الغامضة اليوم؟ بوجه عام، الإجابة هي أن محاولة تصميم الذكاء الاصطناعي العام تثير أسئلة عن ماهية الكينونات التي يمكن أن يستخدمها تمثيل المعرفة. تثار تلك الأسئلة أيضًا في تصميم شبكة الويب الدلالية.

شبكة الويب الدلالية ليست مثل شبكة الإنترنت العالمية التي لدينا منذ تسعينيات القرن العشرين. شبكة الويب الدلالية ليست اختراعًا جديدًا، بل إنها اختراع من المستقبل. إذا وُجدت أو عندما توجد، سيتحسن البحث الترابطي الموجَّه بالآلة، وسيُكمله فهم الآلة. وهذا سيمكِّن التطبيقات ومتصفحات الويب من أن تصل إلى المعلومات من أي مكان على الإنترنت، وأن تدمج العناصر المختلفة بشكل معقول في التفكير بشأن الأسئلة. وهذا الأمر بالغ الصعوبة. بالإضافة إلى تطويرات هندسية ضخمة في مكونات الأجهزة والبنية التحتية للاتصالات، فهذا المشروع الطموح (الذي يديره السير تيم بيرنرز-لي) يحتاج إلى تعميق فهم البرامج التي تتجول عبر الويب لما يجري.

بوجه عام، محرِّكات البحث مثل جوجل وبرامج معالجة اللغات الطبيعية يمكن أن تجد ارتباطات بين الكلمات و/أو النصوص أو أحدهما، ولكن لا يوجد فهم. وهنا، هذه ليست نقطة فلسفية (انظر الفصل السادس للمزيد)، ولكنها تجريبية، كما أنها تمثِّل عقبة إضافية أمام تحقيق الذكاء الاصطناعي العام. وعلى الرغم من وجود بعض الأمثلة الخادعة المُغْرية — مثل «واتسون» و«سيري» والترجمة الآلية (وكلها تناولناها في الفصل الثالث) — فإن أجهزة الكمبيوتر اليوم ليست قادرة على فهم معنى ما «يُقرأ» أو «يقال».

رؤية الكمبيوتر

بالإضافة إلى ما سبق، أجهزة الكمبيوتر اليوم لا تفهم الصور المرئية كما يفهمها البشر. (مرة أخرى، هذه نقطة تجريبية، وقد تناولنا في الفصل السادس هل أنظمة الذكاء الاصطناعي العام يمكن أن يكون لها إدراك حسي بصري واعٍ أم لا).

منذ عام ١٩٨٠، اعتمدت تمثيلات المعرفة المتنوعة المستخدَمة في رؤية الذكاء الاصطناعي اعتمادًا كبيرًا على علم النفس، لا سيما نظريات ديفيد مار وجيمس جيبسون. لكن على الرغم من هذه التأثيرات النفسية، فإن البرامج المرئية في الوقت الحالي محدودة للغاية.

لا أحد ينكر أن رؤية الكمبيوتر حقَّقت إنجازات ملحوظة، ومن الأمثلة على ذلك التعرف على الوجه بنسبة نجاح تصل إلى ٩٨٪. أو قراءة خط اليد ذي الحروف المتشابكة. أو ملاحظة شخص يتصرَّف بشكل يثير الريبة (باستمرار التوقف بجانب أبواب السيارات) في أماكن ركن السيارات. أو التعرف على الخلايا المريضة أفضل من اختصاصي الأمراض من البشر. عندما نصادف هذه النجاحات، فعادةً ما يُذهل العقل أيَّما ذهول.

لكن عادةً ما تُضطر البرامج (العديد منها عبارة عن شبكات عصبية؛ انظر الفصل الرابع) إلى معرفة ما تبحث عنه بالضبط؛ على سبيل المثال، ينبغي ألا يكون الوجه مقلوبًا، وأن يكون في صورة الصفحة الشخصية، وألا يكون مخفيًّا جزئيًّا خلف شيء آخَر، وأن تكون الإضاءة بطريقة معيَّنة (حتى تبلغ نسبة نجاح التعرف عليه ٩٨٪).

كلمة «عادةً» مهمة. في عام ٢٠١٢، أدمج مختبر الأبحاث في جوجل ١٠٠٠ جهاز كمبيوتر كبيرًا (ذا ١٦ نواة) لتكوين شبكة عصبية ضخمة تحتوي على ما يزيد على مليار نقطة اتصال. جُهزت الشبكة بتقنية التعلم العميق، وأُدخل لها ١٠ ملايين صورة عشوائية من مقاطع الفيديو على موقع «يوتيوب». لم تتلقَّ تعليمات بما تبحث عنه، ولم توضع علامات للصور. ولكن بعد ثلاثة أيام، تعلمت وحدة (خلية عصبية اصطناعية) أن تستجيب لصور وجوه القطط وأخرى لصور وجوه الإنسان.

هل هذا باهر؟ حسنًا، نعم. ومثير للجدل أيضًا، وسرعان ما تذكَّر الباحثون فكرة «خلايا الجدة» في الدماغ. ومنذ عشرينيات القرن العشرين، اختلف علماء الأعصاب حول ما إذا كانت هذه الخلايا موجودة أم لا. والقول بوجود تلك الخلايا يعني أن هناك خلايا في الدماغ (إما خلايا عصبية مفردة وإما مجموعات خلايا عصبية صغيرة) لا تنشط أبدًا إلا عند التعرف على جدة أو سمة معيَّنة أخرى. من الواضح أنه كان يُجري شيئًا مشابهًا في شبكة التعرف على صور القطط لدى جوجل. وعلى الرغم من أن وجوه القطط يجب أن تكون بالصورة الكاملة والوضعية الصحيحة، فإنه يمكن أن تتفاوت في الحجم أو تبدو في وضعيات مختلفة في نطاق صفيف ٢٠٠ × ٢٠٠. دراسة أخرى دربت النظام على صور تضم صور بشر منتقاة بعناية ومختارة مسبقًا (من دون تسمية)، وبعضها من صور الملف الشخصي، ونتج عن تلك الدراسة وحدة تستطيع أن تميِّز الوجوه التي حادت عن عدسة الكاميرا، ولكن لا يحدث هذا إلا في بعض الأحيان.

في الوقت الراهن، تحقَّقَت العديد من الإنجازات الأروع. حقَّقت الشبكات المتعددة الطبقات إنجازات عظيمة في خاصية التعرف على الوجوه، ويمكنها في بعض الأحيان العثور على أبرز جزء في الصورة، وتُنشئ تعليقًا لفظيًّا لوصف الصورة (مثل أشخاص يتسوَّقون في متجر خارجي). انطلق في الآونة الأخيرة «تحدي التعرف البصري الواسع النطاق»، ويزيد في كل عام عددُ الفئات البصرية التي يمكن التعرف عليها، وتقل القيود المفروضة على الصور المعنية (مثل عدد الأجسام وتطابقها). ومع ذلك، ستظل أنظمة التعلم العميق ترث بعض نقاط الضعف من الأنظمة السابقة عليها.

على سبيل المثال، تلك الأنظمة شأنها شأن أداة التعرف على وجوه القطط؛ إذ لن تفهم حقيقة المساحة الثلاثية الأبعاد، وليس لديها فكرة عمَّا يكون «الملف الشخصي» أو التطابق. حتى البرامج المصممة للروبوتات لا توفِّر إلا قدرًا ضئيلًا عن تلك المسائل.

تعتمد روبوتات مارس روفر — مثل «أوبورتيونينتي» و«كيوريوسيتي» — (اللذين هبطا في عام ٢٠٠٤ و٢٠١٢ على التوالي) على خدع خاصة لتمثيل المعرفة، وهي: الاستدلالات المُخصَّصة للمسائل الثلاثية الأبعاد المتوقَّع أن يواجهها الروبوتان. هذان الروبوتان لا يستطيعان البحث عن مسار جسم أو مناورته بوجه عام. تحاكي بعض الروبوتات الرؤية المتحركة، حيث إن حركات الجسم نفسها توفِّر معلومات مفيدة (لأنها تغير المُدخلات المرئية بشكل منهجي). لكنها لا تستطيع أن تلاحظ مسارًا محتملًا، أو تتعرف على أن ذلك الشيء غير المألوف يمكن أن تلتقطه يد الروبوت في حين أنه لا يمكن ذلك.

قد يكون هناك بعض الاستثناءات بحلول وقت نشر هذا الكتاب. ولكن ستكون هناك قيود أيضًا. على سبيل المثال، لن تفهم الروبوتات عبارة «لا أستطيع التقاط هذا الشيء»؛ لأنها لن تفهم الفرق بين «أستطيع» و«لا أستطيع». يعود السبب إلى احتمالية عدم توافر منطق الموجهات لتمثيل المعرفة الخاص بها.

في بعض الأحيان، قد تتجاهل الرؤية المساحة ثلاثية الأبعاد، مثل حالات قراءة خط اليد.

لكن حتى رؤية الكمبيوتر الثنائية الأبعاد محدودة. وعلى الرغم من الجهود البحثية بشأن التمثيلات «التناظرية» أو «الأيقونية»، لا يستطيع الذكاء الاصطناعي أن يستخدم المخططات بشكلٍ موثوق في حل المسائل، مثلما نفعل في إيجاد البرهان الهندسي أو في تدوين علاقات مجرَّدة على ظهر المغلف. (وبالمثل، لا يفهم علماء النفس حتى الآن كيف نفعل تلك الأشياء).

باختصار، معظم المآثر البصرية لدى الإنسان تفوق الذكاء الاصطناعي اليوم. وكثيرًا لا يتسم باحثو الذكاء الاصطناعي بالوضوح بشأن الأسئلة المراد طرحها. على سبيل المثال، فكر في طي رداء من الساتان الفائق النعومة طيًّا مهندمًا. لا يستطيع الروبوت أن يفعل ذلك (على الرغم من أن بعضها قد يتلقَّى تعليمات — خطوة خطوة — بطريقة طي منشفة منسوجة مستطيلة). أو فكر في ارتداء تيشيرت؛ يجب أن يدخل الرأس أولًا وليس الكم، ولكن لماذا؟ لا تكاد تلك المسائل الموضعية أن يكون لها سمة بارزة في الذكاء الاصطناعي.

ولا يعني ذلك استحالة أن تبلغ رؤية الكمبيوتر مستوى رؤية الإنسان. ولكن تحقيقها أصعب مما تعتقده غالبية الناس.

لذا، هذه حالة خاصة من الحقيقة الواردة في الفصل الأول؛ إذ تقول إن الذكاء الاصطناعي علَّمنا أن العقل البشري أثرى بكثير وأدق ممَّا كان يتخيله علماء النفس سابقًا. في الحقيقة، هذا هو الدرس الأساسي الذي ينبغي تعلُّمه من الذكاء الاصطناعي.

مشكلة الإطار

جزء من صعوبة إيجاد تمثيل المعرفة المناسب في أي نطاق يكمن في ضرورة تجنُّب «مشكلة الإطار». (انتبِه: على الرغم من أن هذه المشكلة تظهر عند استخدام الأُطُر في صورة تمثيل المعرفة للمفاهيم، فإن مدلولات «الإطار» هنا مختلفة).

حسب تعريف مكارثي وهايز الأساسي، تتضمن مشكلة الإطار افتراضًا (في أثناء التخطيط باستخدام الروبوت) بأن إجراءً ما لن يؤدي إلا إلى «هذه» التغييرات، وفي الوقت نفسه قد يؤدي إلى «تلك» التغييرات. بوجه أعم، تظهر مشكلة الإطار عندما يتجاهل الكمبيوتر الآثار التي يفترضها الإنسان المفكِّر ضمنيًّا ولا يذكرها صراحةً.

لنضرب المثال الكلاسيكي، وهو مسألة القرد والموز، وفيها يفترض القائم على حل المسألة (ربما مخطط الذكاء الاصطناعي للروبوت) أنه لا يوجد شيء ذو صلة خارج الإطار (شكل ٢-١).
fig1
شكل ٢-١: مسألة القرد والموز: كيف يصل القرد إلى الموز؟ (يفترض المنهج المعتاد لتلك المسألة أن «العالم» ذا الصلة هو الموضح خارج الإطار ذي الخط المنقط، على الرغم من عدم ذكر ذلك صراحةً. بعبارة أخرى، لا يوجد شيء خارج هذا الإطار قد يؤدي إلى تغييرات كبيرة فيه عند تحريك الصندوق).

إليكم مثالي المفضَّل: إذا كان الرجل بعمر ٢٠ عامًا يجمع عشرة أرطال من التوت الأسود في ساعة، والمرأة في عمر ١٨ عامًا تجمع ثمانية أرطال، فكم عدد الأرطال التي سيجمعونها إذا تعاونا معًا؟ بالتأكيد الإجابة ليست «١٨» رطلًا. قد تكون الكمية أكبر بكثير (لأن كليهما سيستعرض مهاراته)، أو الأرجح أنها ستكون أقل. ما أنواع المعرفة المتضمنة في هذا المثال؟ وهل يتمكن الذكاء الاصطناعي العام من التغلب على ما يبدو أنه معطيات حسابية بسيطة؟

تنشأ مشكلة الإطار لأن برامج الذكاء الاصطناعي لا تتمتع بحس «الصلة» مثل الإنسان (انظر الفصل الثالث). يمكن تجنُّب تلك المشكلة في حالة معرفة كل التبعات المحتملة لكل إجراء محتمل. وهكذا يكون الأمر في بعض المجالات الفنية/العلمية. ولكنه لا يكون كذلك بوجه عام. وهذا هو السبب الرئيسي في افتقار أنظمة الذكاء الاصطناعي إلى الإدراك السليم.

باختصار، تحوم مشكلة الإطار حول كل شيء، كما أنها عقبة كبيرة في طلب الذكاء الاصطناعي العام.

العوامل والإدراك الموزع

عامل الذكاء الاصطناعي إجراء قائم بذاته (مستقل)، ويُشبَّه في بعض الأحيان بردود الفعل الانعكاسية، وفي أحيان أخرى بالعقل المصغر. يمكن أن يُطلق على تطبيقات الهواتف أو المدقِّق اللغوي عوامل، ولكنها ليست عوامل في العادة؛ لأن العوامل تتعاون عادةً. إنها تستخدم ذكاءها المحدود للغاية بالتعاون مع — أو على أي حال جنبًا إلى جنب مع — العوامل الأخرى كي تعطي نتائج لا يمكن أن تحقِّقها بمفردها. التفاعل بين العوامل مهم بقدر ما هو مهم بين الأفراد أنفسهم.

تُنظَّم بعض أنظمة العوامل تنظيمًا هرميًّا؛ الأفضل ثم الأدنى إذا جاز التعبير. ولكن العديد منها يجسِّد الإدراك الموزع. هذا يتضمن التعاون مع بنية الأوامر الهرمية (ومن هنا كانت المراوغة — في وقت سابق — بين عبارة «بالتعاون بين» وعبارة «جنبًا إلى جنب»). لا يوجد خطة مركزية ولا تأثير من سلطة أعلى إلى سلطة أدنى، ولا يوجد أفراد يمتلكون كل المعرفة ذات الصلة.

طبيعي أن تشتمل أمثلة الإدراك الموزَّع الحالية على مسارات النمل وملاحة السفن والعقل البشري. تبرز مسارات النمل من سلوك العديد من فرادى النمل، حيث إنها تُخلف موادَّ كيميائية تلقائيًّا وهي في طريقها (وتتبع تلك المواد). وبالمثل، ملاحة السفن ومناوراتها تنتج عن تضافر الأنشطة بين العديد من البشر؛ والقبطان نفسه لا يمتلك كل المعرفة اللازمة، وبعض أفراد الطاقم لديهم قدر ضئيل من المعرفة في واقع الأمر. حتى العقل الفردي يتضمن الإدراك الموزع؛ لأنه يدمج العديد من النُّظم الفرعية المعرفية والتحفيزية والعاطفية (انظر الفصلين الرابع والسادس).

تتضمن الأمثلة الاصطناعية كلًّا من الشبكات العصبية (انظر الفصل الرابع)، ونموذج الأنثروبولوجيا الحاسوبي الخاص بملاحة السفن وعمل الحياة الاصطناعية على الروبوتات الكائنة وذكاء السرب وروبوتات السرب (انظر الفصل الخامس)، ونماذج الذكاء الاصطناعي الرمزي للأسواق المالية (حيث تكون العوامل البنوك وصناديق التحوط والشركات المساهمة الكبرى)، ونموذج تعلُّم وكيل التوزيع الذكي (LIDA) الخاص بالوعي (انظر الفصل السادس).

واضح أن الذكاء الاصطناعي العام على المستوى البشري يتضمن الإدراك الموزع.

تعلُّم الآلة

يتضمن الذكاء الاصطناعي العام على المستوى البشري تعلُّم الآلة أيضًا. لكن لا حاجة أن يكون التعلم شبيهًا بتعلم الإنسان. ظهر المجال من عمل علماء النفس على مفهوم التعلم والتعزيز. لكن في الوقت الراهن، يعتمد تعلُّم الآلة على تقنيات رياضية مخيفة؛ لأن تمثيلات المعرفة المستخدمة تتضمن نظرية الاحتمالات والإحصاءات. (يمكن القول إن علم النفس قد تخلَّف كثيرًا عن الرَّكب. بالتأكيد، تكاد الأنظمة الحديثة لتعلُّم الآلة تخلو من أوجه الشبه للأفكار التي تدور في عقل الإنسان. ومع ذلك، الاستخدام المتزايد لاحتمالية بايزي في مجال الذكاء الاصطناعي يوازي النظريات الحديثة في علم النفس المعرفي وعلم الأعصاب).

مجال تعلُّم الآلة في الوقت الحالي يُدرُّ أرباحًا غزيرة. إنه يُستخدم في تجميع البيانات وفي معالجة البيانات الضخمة؛ حيث إن أجهزة الكمبيوتر العملاقة تُجري مليون مليار عملية حسابية في الثانية (انظر الفصل الثالث).

تستخدم بعض أنظمة تعلُّم الآلة الشبكات العصبية. ولكن كثيرًا منها يعتمد على الذكاء الاصطناعي الرمزي مدعومًا بخوارزميات إحصائية قوية. في الحقيقة، تقوم الإحصائيات بالعمل، ولا يكون للذكاء الاصطناعي التقليدي الجميل دور سوى توجيه العامل إلى مكان العمل. ومن ثَم يعتبر بعض المحترفين تعلُّم الآلة أحد علوم الكمبيوتر والإحصاءات أو أحدهما — ولا يعتبرونه ضمن الذكاء الاصطناعي. ولكن لا يوجد فرق واضح هنا.

يتضمن تعلُّم الآلة ثلاثة أنواع شاملة، وهي: التعلم الموجَّه والتعلم غير الموجَّه والتعلم المعزز. (تأصَّلت الفروق في علم النفس، وربما تدخل آليات عصبية فسيولوجية، وينطوي التعلم المعزز — فيما بين الأنواع — على الدوبامين).

في التعلم الموجَّه، المبرمج يدرِّب النظام عن طريق تحديد مجموعة من النتائج المرجوَّة من مجموعة مُدخَلات (مصنَّفة بالأمثلة الدالة والأمثلة غير الدالة)، ويقدِّم ملاحظات عمَّا إذا تحقَّقت النتائج من عدمه. يولد نظام التعلم فرضيات عن السمات ذات الصلة. وأينما أخطأ في التصنيف، يعدِّل فرضيته طبقًا لذلك. رسائل الأخطاء المحدَّدة البالغة الأهمية (فهي ليست مجرَّد تغذية راجعة عن أخطاء النظام).

في التعلم غير الموجَّه، لا يوفِّر المستخدِم النتائج المرجوَّة ولا رسائل الأخطاء. يُدفع التعلم بالمبدأ القائل إن السمات المتزامِنة يتولد عنها توقعات بأنها ستتزامن في المستقبل. ويُستخدم التعلم غير الموجَّه لاكتشاف المعرفة. ومن ثَم لا يحتاج المبرمج إلى معرفة الأنماط/المجموعات الموجودة في البيانات؛ فالنظام يجدها من تلقاء نفسه.

وفي النهاية، يُدفع التعلم المعزَّز بنظائر المكافأة والعقاب؛ رسائل التغذية الراجعة تخبر النظام أن ما فُعل كان جيدًا أو سيئًا. وفي كثير من الأحيان، لا يكون التعزيز مجرَّد ازدواج، ولكن تمثِّله أرقام مثل الدرجات في لعبة الفيديو. قد يكون «ما فُعل» قرارًا فرديًّا (مثل حركة في لعبة) أو سلسلة قرارات (مثل حركات الشطرنج التي تبلغ ذروتها مع إماتة الملك). في بعض ألعاب الفيديو، تُحدَّث الدرجة العددية مع كل حركة. في المواقف البالغة التعقيد مثل الشطرنج، لا يشار إلى النجاح (أو الفشل) إلا بعد عدة قرارات، وأحد إجراءات تكليف الائتمان يحدِّد القرارات التي من المرجَّح أن تؤدي إلى النجاح.

يفترض تعلُّم الآلة الرمزي أن تمثيل المعرفة للتعلم يجب أن يتضمن شكلًا من أشكال توزيع الاحتمالات، وصحة هذا الافتراض ليست جلية. كذلك تفترض العديد من خوارزميات التعلم أن كل متغيِّر في البيانات له القدر نفسه من توزيع الاحتمالات، وكل المتغيرات مستقلة بالتبادل؛ وهذا الافتراض عادةً ما يكون زائفًا. السبب في ذلك أن افتراض الاستقلال والتوزيع المتماثل ينطوي على العديد من النظريات الرياضية الخاصة بالاحتمالات، وتلك النظريات تعتمد عليها الخوارزميات. اعتمد علماء الرياضيات افتراض الاستقلال والتوزيع المتماثل؛ لأنه يزيد من تبسيط الرياضيات. وبالمثل، استخدام افتراض الاستقلال والتوزيع المتماثل في الذكاء الاصطناعي يبسط مساحة البحث، وهو ما يزيد من سهولة حل المسألة.

لكن إحصاءات بايزي تتعامل مع الاحتمالات المشروطة حيث لا تكون العناصر/الأحداث مستقلة. وهنا، تعتمد الاحتمالية على أدلة التوزيع بشأن النطاق. بالإضافة إلى زيادة مستوى الواقعية في تمثيل المعرفة هذا، فإنه يتيح تغيير الاحتمالات إذا ظهر دليل جديد. ومن ثَم تبرز تقنيات بايزي أكثر وأكثر في الذكاء الاصطناعي، وأيضًا في علم النفس وعلم الأعصاب. تعتمد نظريات دماغ بايزي (انظر الفصل الرابع) على الأدلة غير المستقلة وغير المتماثلة التوزيع من أجل تحفيز وصقل التعلم غير الموجَّه في الإدراك والتحكم في الحركة.

بناءً على العديد من نظريات الاحتمالات، يوجد العديد من الخوارزميات المناسبة لأنواع معيَّنة من التعلم ومجموعات مختلفة من البيانات. على سبيل المثال، تقبل خوارزمية آلات المتجهات الداعمة افتراض الاستقلال والتوزيع المتماثل، ويشيع فيها استخدام التعلم الموجَّه، لا سيما إذا كان المستخدم يفتقر إلى معرفة مسبقة متخصِّصة عن المجال. تفيد خوارزميات «حقيبة الكلمات» في حال أمكن تجاهُل ترتيب السمات (مثل عمليات البحث عن الكلمات وليس العبارات). وإذا أُسقط افتراض الاستقلال والتوزيع المتماثل، فإن تقنيات بايزي (آلات هيلمهولتز) يمكن أن تتعلم من أدلة التوزيع.

يستخدم معظم الاحترافيين في تعلم الآلة طرقًا إحصائية جاهزة. يحظى مبتكرو هذه الأساليب بتقدير كبير في هذا المجال؛ ففي الآونة الأخيرة، وظَّف موقع «فيسبوك» منشئ خوارزمية آلات المتجهات الداعمة، وفي عام ٢٠١٣ / ٢٠١٤ وظَّف موقع جوجل العديد من كبار مبتكري التعلم العميق.

التعلم العميق إنجازٌ جديد واعد وقائم على شبكات متعدِّدة الطبقات (انظر الفصل الرابع)، وبه يُتعرف على الأنماط في البيانات المدخلة على عدة مستويات هرمية. بعبارة أخرى، يكتشف التعلم العميق تمثيل المعرفة المتعدد المستويات، ومنها على سبيل المثال وحدات البيكسل لوحدة كشف التباين إلى وحدة كشف الحواف إلى وحدة كشف الشكل إلى أجزاء الكائن ثم إلى الكائنات.

من الأمثلة على ذلك، وحدة كشف وجوه القطط التي برزت من بحث جوجل على «يوتيوب». مثال آخَر ورد في صحيفة «نيتشر» عام ٢٠١٥، وهو خوارزمية التعلم المعزَّز (خوارزمية شبكة كيو العميقة) التي استطاعت ممارسة ألعاب الأتاري الكلاسيكية ٢٦٠٠ الثنائية الأبعاد. وعلى الرغم من عدم توفير مدخلات سوى وحدات البيكسل ونقاط اللعبة (وعدم معرفة سوى عدد الإجراءات المتاحة لكل لعبة)، فقد تفوَّقت على البشر بنسبة ٧٥٪ في ٢٩ لعبة من أصل ٤٩ لعبة، وتفوَّقت على مختبري الألعاب الاحترافيين في ٢٢ لعبة.

يبقى أن نرى إلى أي مدًى يمكن توسيع هذا الإنجاز. وعلى الرغم من أن خوارزمية شبكة كيو العميقة تعثر على الاستراتيجية المثلى حيث إنها تتضمن إجراءات ذات ترتيب زمني، فإنها لا تستطيع أن تتقن الألعاب التي يتجاوز تخطيطها مدة زمنية أطول.

ربما يقترح علم الأعصاب تحسينات في هذا النظام. الإصدار الحالي مستوحًى من مستقبلات الرؤية هابل-ويزل؛ وهي عبارة عن خلايا في القشرة البصرية لا تستجيب إلا إلى الحركة أو لخطوط ذات اتجاه معيَّن. (هذا ليس بالأمر الجلل؛ فمستقبلات هابل-ويزل ألهمت نظام بانديمونيوم أيضًا؛ انظر الفصل الأول). الأغرب من ذلك، هذا الإصدار من خوارزمية شبكة كيو العميقة مُستوحًى أيضًا من «إعادة التجربة» الذي يحدث في الحصين أثناء النوم. ومثل الحصين، يخزن نظام شبكة كيو العميقة مجموعة من النماذج أو التجارب السابقة، ويعيد تنشيطها بسرعة أثناء التعلم. هذه السمة بالغة الأهمية، ويقول المصمِّمون إنه سيقع «تدهور حاد» في الأداء عند تعطيلها.

الأنظمة العامة

جزء من الإثارة التي تسبَّب فيها لاعب الأتاري — إذ استحق النشر في صحيفة «نيتشر» — يكمن في السير نحو الذكاء الاصطناعي العام. خوارزمية مفردة لا تستخدم تمثيل معرفة يدويًّا، ولكنها تعلمت مجموعة كبيرة من الكفاءات في مجموعة من المهام التي تنطوي على مدخلات حسية عالية الأبعاد نسبيًّا. لم يسبق أن أدَّى برنامجٌ ذلك.

ولا حتى برنامج ألفاجو AlphaGo الذي ابتكره الفريق نفسه، والذي تغلَّب على بطل العالم لي سيدول في لعبة جو Go عام ٢٠١٦. ولا حتى ألفاجو زيرو AlphaGo Zero الذي تفوَّق على «ألفاجو» عام ٢٠١٧، على الرغم من أنه لم يُغذَّ بأي بيانات بشأن مباريات لعبة «جو» التي لعبها البشر. تسجيلًا للموقف، في ديسمبر ٢٠١٧ أتقن «ألفا زيرو» لعبة الشطرنج أيضًا، وأتقنها بعد ممارسة اللعبة لمدة أربع ساعات ضد نفسه، وبدأ بحالات عشوائية، ولكن توفَّرت له قواعد اللعبة، وقد هزم البرنامج البطل في لعبة الشطرنج «ستوك فيش»؛ إذ حقَّق الفوز في ٢٨ مباراة، وتعادل في ٧٢ مباراة من أصل ١٠٠ مباراة.

لكن كما لوحظ في مستهل هذا الفصل، سيحقِّق الذكاء الاصطناعي العام الكامل إنجازاتٍ أكبر. وإذا كان يصعب بناء نظام مُتخصِّص عالي الأداء في الذكاء الاصطناعي، فإن بناء برنامج عام في الذكاء الاصطناعي أصعب بكثير. (التعلم العميق ليس هو الحل؛ يعترف هواة التعلم العميق بالحاجة إلى نماذج جديدة لدمجها مع التفكير المنطقي المُعقَّد، رمز علمي لعبارة «ليس لدينا مفتاح للحل»). وهذا يفسِّر لماذا تخلَّى كثير من الباحثين في الذكاء الاصطناعي عن أملهم الأول، ويلتفتون إلى مهام متنوِّعة ودقيقة التحديد، وغالبًا ما كان يصحبها نجاح باهر.

من روَّاد الذكاء الاصطناعي العام الذين حافظوا على أملهم الطموح نيويل وجون أندرسون. لقد أسَّسا نظام التوجيه نحو النجاح وتحقيق الأهداف SOAR ونظام التحكم المتكيف مع التفكير والعقل ACT-R على التوالي؛ انطلق النظامان في أوائل ثمانينيات القرن العشرين وظلَّ كلاهما قيد التطوير (والاستخدام) لما يقارب ثلاثة عقود بعد ذلك. لكن النظامين بالغا في تبسيط المهام؛ حيث إنهما لا يركِّزان إلا على مجموعة فرعية صغيرة من الكفاءات البشرية.

في عام ١٩٦٢، درس سيمون — زميل نيويل — مسارًا متعرجًا لنملة على أرض غير معبَّدة. قال إن كل حركة عبارة عن تفاعل مباشر لموقف تدركه النملة في تلك اللحظة (تلك الفكرة الأساسية للروبوتات الكائنة؛ انظر الفصل الخامس). بعد ١٠ سنوات، ألَّف نيويل وسيمون كتابًا بعنوان «حل مشكلات البشر»، وقالا إن ذكاءنا متشابه. وطبقًا لنظريتهما النفسية، فإن الإدراك والإجراء الحركي يكتملان بالتمثيلات الداخلية (قواعد «الشرط وجواب الشرط» أو عمليات الإنتاج) المخزنة في الذاكرة، أو التي بُنيت حديثًا في أثناء حل المشكلة.

قالا: «إن الإنسان بسيط للغاية حينما يُرى على أنه نظام يتحرك.» ولكن التعقيدات السلوكية الناشئة مهمة. على سبيل المثال، أظهرا أن الأنظمة التي لا تتكون إلا من ١٤ قاعدة شرطية يمكن أن تحل المسائل الحسابية الخفية (مثل تحويل الحروف إلى أرقام من ٠ إلى ٩ في المجموع الآتي: DONALD + GERALD = ROBERT، حيث إن D = ٥). تتعامل بعض القواعد مع تنظيمات الهدف الأساسي/الفرعي. وبعضها يوجه الانتباه (إلى عمود أو حرف معين). وبعضها يستدعي الخطوات السابقة (النتائج المتوسطة). وبعضها يتعرف على البدايات المزيَّفة. والبعض يرجع إلى البداية كي يصلح تلك البدايات.

قالا إن المسائل الحسابية الخفية تمثِّل نموذجًا للهندسة الحسابية لكل السلوك الذكي؛ ومن ثَم كان هذا النهج مناسبًا للذكاء الاصطناعي العام. منذ عام ١٩٨٠، ابتكر نيويل (بالتعاون مع جون ليرد وبول روزنبلووم) نظام التوجيه نحو النجاح وتحقيق الأهداف. كان الهدف من النظام أن يكون نموذجًا للمعرفة بوجه عام. يضم النظام بين ثنايا منطقه كلًّا من الإدراك والانتباه والذاكرة والارتباط والاستدلال والقياس والتعلم. وقد جُمع بين الاستجابات الشبيهة باستجابات النمل (الكائنة) والتفكير مع النفس. في الحقيقة، غالبًا ما ينتج التفكير عن الاستجابات المنعكسة؛ لأن التسلسل المستخدم مسبقًا للأهداف الفرعية يمكن «تجزئته» في قاعدة واحدة.

في الحقيقة، فشل نظام التوجيه نحو النجاح وتحقيق الأهداف في وضع نموذج لكل أنماط المعرفة، وجرى توسيعه فيما بعدُ عندما أدرك الناس بعض الفجوات. يُستخدم الإصدار الحالي في العديد من الأغراض، بدايةً من التشخيص الطبي وصولًا إلى جدولة إنتاج المصانع.

تتكون أنظمة التحكم المتكيِّف مع التفكير والعقلانية من أنظمة مختلطة (انظر الفصل الرابع) جرى تطويرها بالجمع بين أنظمة الإنتاج والشبكات الدلالية. هذه الأنظمة تعيد تنظيم الاحتماليات الإحصائية في البيئة، كما أنها تمثِّل نموذجًا للذاكرة المقترنة والتعرف على الأنماط والمعاني واللغة وحل المسائل والتعلم والتخيل والتحكم الحركي الإدراكي (منذ ٢٠٠٥).

من السمات الأساسية في التحكم المتكيف مع التفكير والعقلانية التكامل مع المعرفة الإجرائية والمعرفة التوضيحية. قد يعرف شخصٌ ما أن نظرية إقليدس صحيحة من دون أن يعرف طريقة استخدامها في إيجاد البراهين الهندسية. يستطيع التحكم المتكيف مع التفكير والعقلانية أن يتعلم طريقة تطبيق حقيقة افتراضية عن طريق تكوين مئات المنتجات الجديدة التي تتحكم في استخدامها في العديد من الظروف المختلفة. إنه يتعلم أي الأهداف الرئيسية والفرعية والمتفرِّعة عن الأهداف الفرعية المتعلِّقة بعضها ببعض، وفي أي ظروف، وما النتائج التي ستتولد عن إجراء معيَّن في ظروف متعدِّدة. باختصار، إنه يتعلم بالتجرِبة. ومثل نظام التوجيه نحو النجاح وتحقيق الأهداف، فإن بإمكانه تجزئة العديد من القواعد التي غالبًا ما يتم تنفيذها بطريقة متسلسلة في قاعدة واحدة. وهذا يوازي الفرق بين الطريقة التي يتبعها الخبراء والطريقة التي يتبعها المبتدئون من البشر في حل المسألة «نفسها»؛ إمَّا بمنتهى السهولة وإما بشق الأنفس.

نظام التحكم المتكيِّف مع التفكير والعقلانية له استخدامات متنوِّعة. يعطي معلمو رياضيات هذا النظام ملاحظات مُخصَّصة، بما في ذلك معرفة المجال ذي الصلة وبنية الأهداف الرئيسية/الفرعية لحل المسألة. وبفضل التجزئة، تتغير أبعاد الاقتراحات بتقدم الطلاب في التعليم. تتعلق الاستخدامات الأخرى بمعالجة اللغات الطبيعية، والتفاعل بين الإنسان والكمبيوتر، والانتباه والذاكرة البشرية، والقيادة والطيران، والبحث بالصور على شبكة الويب.

تزامن نظام التوجيه نحو النجاح وتحقيق الأهداف ونظام التحكم المتكيف مع التفكير مع محاولات أخرى في مجال الذكاء الاصطناعي العام، ومنها ما يأتي: نظام «سي واي سي» الذي طوَّره دوجلاس لينات. صدر نظام الذكاء الاصطناعي الرمزي هذا في عام ١٩٨٤، ولم يتوقف عن التطوير منذ ذلك الحين.

بحلول عام ٢٠١٥، تضمَّن نظام «سي واي سي» ٦٢ ألف «علاقة» قادرة على ربط المفاهيم في قاعدة بياناته، بالإضافة إلى ملايين الروابط بين تلك المفاهيم. تتضمن تلك الروابط روابط دلالية وروابط حقيقية مخزَّنة في شبكات دلالية كبيرة (انظر الفصل الثالث)، وعددًا لا يُحصى من حقائق الفيزياء البسيطة؛ وهي المعارف غير الصورية للظواهر الفيزيائية التي لدى جميع البشر (مثل السقوط والانسكاب). يستخدم النظام كلًّا من المنطقَين الرتيب وغير الرتيب، وكذلك الاحتمالات للتفكير في البيانات التي لديه. (في الوقت الحالي، تُحوَّل كل المفاهيم والروابط إلى تعليمات برمجية يدويًّا، ولكن يُضاف التعلم البايزي أيضًا، فهذا سيُمكِّن نظام «سي واي سي» من التعلم من الإنترنت).

سبق للنظام أن استخدمته العديد من الهيئات الحكومية الأمريكية، مثل وزارة الدفاع (لمراقبة الجماعات الإرهابية على سبيل المثال) والمعاهد الوطنية للصحة وبعض البنوك الكبرى وشركات التأمين. صدر الإصدار الأصغر «أوبن سايك» (OpenCyc) علنًا باعتباره مصدر خلفية للعديد من التطبيقات، كما يتوافر إصدار صغير أشمل «ريسيرش سايك» (ResearchCyc) للعاملين في مجال الذكاء الاصطناعي. وعلى الرغم من المواظبة على تحديث أوبن سايك، فإنه لا يحتوي إلا على مجموعة فرعية صغيرة من قاعدة بيانات نظام «سي واي سي»، ومجموعة فرعية صغيرة من قواعد الاستدلال. وفي النهاية، سيتوفر النظام الكامل (أو شبه الكامل) تجاريًّا. ولكن قد يقع النظام في أيادٍ خبيثة إذا لم تُتخذ إجراءات معيَّنة للوقاية من ذلك (انظر الفصل السابع).

وصف لينات «سي واي سي» في مجلة «إيه آي ماجازين» عام ١٩٨٦ قائلًا: «استخدام المعارف المنطقية للتغلب على الهشاشة والصعوبات في اكتساب المعرفة.» وهذا يعني أن النظام كان يتعامل مع تحدي مكارثي التنبُّئي على وجه التحديد. واليوم، أصبح النظام رائدًا في نمذجة التفكير «المنطقي»، وأيضًا في «استيعاب» المفاهيم التي يتعامل معها (ولا يخفى أنه حتى البرامج الرائعة في معالجة اللغات الطبيعية لا تستطيع فهمها؛ انظر الفصل الثالث).

وعلى الرغم من ذلك، ينطوي النظام على العديد من نقاط الضعف. على سبيل المثال، إنه لا يستطيع التكيف مع التعبيرات المجازية (على الرغم من أن قاعدة البيانات تحتوي على عدد كبير من التعبيرات المجازية بالطبع). إنه يتجاهل عدة أنماط من الفيزياء البسيطة. وعلى الرغم من عدم توقف معالجة اللغات الطبيعية عن التحسُّن فيه، فإنها محدودة للغاية. ومن ثَم لا يتضمن رؤية. باختصار، على الرغم من أهداف نظام «سي واي سي» الموسوعية، فإنه لا يلمُّ بجميع معارف الإنسان.

إحياء الحلم

ظل نيويل وأندرسون ولينات يجدُّون في العمل طيلة ٣٠ سنة. لكن في الآونة الأخيرة، حظي الذكاء الاصطناعي العام باهتمام ملحوظ. بدأ مؤتمر سنوي في عام ٢٠٠٨، وانضمَّت أنظمة أخرى من المفترض أنها عامة إلى أنظمة التوجيه نحو النجاح وتحقيق الأهداف والتحكم المتكيف مع التفكير والعقلانية ونظام «سي واي سي».

في عام ٢٠١٠ على سبيل المثال، أطلق رائد تعلُّم الآلة توم ميتشل نظام متعلِّم اللغات غير المنقطع (NELL) الذي طوَّرته جامعة كارنيجي ميلون. هذا النظام «ذو المنطق السليم» يبني معرفته عن طريق البحث في الويب من دون توقف (مر على ذلك سبع سنوات في وقت تأليف هذا الكتاب) وبقبول التصحيحات عبر الإنترنت من المستخدمين. إنه يستطيع عمل استنتاجات بسيطة بناءً على بياناته (غير الموسومة)؛ ومنها على سبيل المثال، الرياضي جو بلوجز يلعب كرة التنس لأنه يلعب في فريق دافيس. بدأ كِيانه بعدد ٢٠٠ فئة وعلاقة (مثل السيد، ناتج عن)، ولكن بعد خمسة أعوام وسَّع كيانه وجمع ٩٠ مليون معتقد مرشح، وكل معتقد له مستوى الثقة الخاص به.

الخبر السيِّئ هو أن نظام متعلِّم اللغات غير المنقطع لا يعرف على سبيل المثال أنه يمكنك سحب الأجسام بسلسلة بدلًا من دفعها. في الواقع، الحس السليم المفترض لجميع أنظمة الذكاء الاصطناعي العام محدود للغاية. والادعاءات بأنه تم «حل» مشكلة الإطار السيئة مضلِّلة للغاية.

أصبح لنظام متعلِّم اللغات غير المنقطع نظام شقيق، وهو: متعلِّم الصور غير المنقطع (NEIL). تجمع بعض برامج الذكاء الاصطناعي العام المرئية جزئيًّا بين تمثيل المعرفة المنطقي الرمزي والتمثيلات التناظرية أو الرسومية (وهذا التمييز وضعه آرون سلومان منذ عدة سنوات، ولكنه ليس مفهومًا فهمًا جيدًا حتى الآن).
بالإضافة إلى ذلك، بفضل نظام المساعد المعرفي المتعلِّم والمنظم (CALO) الذي أطلقه معهد ستانفورد للأبحاث، ظهَر على الساحة تطبيق «سيري» (انظر الفصل الثالث)، واشترته أبل مقابل ٢٠٠ مليون دولار أمريكي عام ٢٠٠٩. تشمل المشاريع النشطة التي يمكن مقارنتها في الوقت الحالي النظام المثير للاهتمام نموذج تعلُّم وكيل التوزيع الذكي LIDA الذي طوَّره ستان فرانكلين (الوارد في الفصل السادس) وبرنامج «أوبن كوج» OpenCog الذي طوَّره بن جورتزل؛ إذ يتعلم البرنامج الحقائق والمفاهيم في العالم الافتراضي الثري كما يتعلم من أنظمة الذكاء الاصطناعي العام الأخرى. (نظام تعلُّم وكيل التوزيع الذكي أحد نظامين عموميين يركِّزان على «الوعي»؛ النظام الثاني هو التعلم الاتصالي المزوَّد بتحفيز القاعدة التكيفية عبر الإنترنت «كلاريون».

في عام ٢٠١٤، انطلق مشروعٌ أكثر حداثة في الذكاء الاصطناعي العام، ويهدف إلى تطوير «هندسة الحوسبة للكفاءات الأخلاقية في الروبوتات» (انظر الفصل السابع). بالإضافة إلى الصعوبات السالفة الذكر، سيُضطر النظام إلى مواجهة العديد من المشكلات المتعلقة بالأخلاقيات.

أي نظام على مستوى الإنسان الحقيقي لن يفعل أقل من ذلك. إذَن، لا عجب من أن الذكاء الاصطناعي العام يثبت أنه صعبٌ تحقيقه.

أبعاد مفقودة

تكاد كل الأنظمة العامة اليوم تركِّز على «المعرفة». على سبيل المثال، يهدف أندرسون إلى تحديد «إلى أي مدًى تترابط المجالات الفرعية في علم النفس المعرفي». (هل نقصد «كل» المجالات الفرعية؟ وعلى الرغم من أنه يتناول التحكم الحركي، فإنه لا يتناول اللمس أو استقبال الحس العميق، وهو ما يتجلَّى أحيانًا في الروبوتات). سيغطي الذكاء الاصطناعي العام حقًّا الدافع والعاطفة أيضًا.

أدركت قلة من علماء الذكاء الاصطناعي تلك المشكلة. كتب كلٌّ من مارفن مينسكي وسلومان كتابات ثاقبة عن معمارية الحوسبة للعقول الكاملة على الرغم من أنه لم يبنِ أيٌّ منهما نموذجًا للعقل الكامل.

تناولنا نموذج سلومان «مايندر» (MINDER) الخاص بالقلق في الفصل الثالث. وعمله (بالإضافة إلى النظرية النفسية لدياترتش دورنر) ألهم برنامج «مايكروبسي» MicroPsi، وهو نظام ذكاء اصطناعي عام قائم على سبعة «محفزات» مختلفة، ويستخدم السمات «العاطفية» في التخطيط واختيار الإجراءات. كذلك أثَّر عمله في نظام تعلُّم وكيل التوزيع الذكي الذي ذكرناه سابقًا (انظر الفصل السادس).

ولكن حتى هذه الأنظمة لا ترقى إلى الذكاء الاصطناعي العام الحقيقي. وفي بيان مينسكي لعام ١٩٥٦ بعنوان «خطوات نحو الذكاء الاصطناعي»، الذي يتنبَّأ بمستقبل الذكاء الاصطناعي، ذُكرت العقبات وكذلك المبشرات. لكننا لم نتغلب على العديد من العقبات السابقة حتى الآن. وحسب ما سيوضِّح لنا الفصل الثالث، فإن الذكاء الاصطناعي العام على مستوى الإنسان لم يظهر في الأفق بعد.

جميع الحقوق محفوظة لمؤسسة هنداوي © ٢٠٢٤