الملحق «د»: التعلم من التجربة

يعني التعلُّم تحسين الأداء بناءً على التجربة. بالنسبة إلى نظام إدراك بصري، قد يعني هذا تعلُّم تمييز المزيد من فئات العناصر اعتمادًا على رؤية أمثلة لتلك الفئات؛ بالنسبة إلى نظامٍ قائم على المعرفة، يُعدُّ مجرَّد اكتساب المزيد من المعرفة شكلًا من التعلُّم؛ لأنه يعني أن النظام يمكنه الإجابة عن المزيد من الأسئلة؛ بالنسبة إلى نظام اتخاذ قرارٍ استباقي مثل «ألفا جو»، يُمكن أن يعني التعلُّم تحسين قدرته على تقييم الأوضاع أو تحسين قدرته على استكشاف أجزاء مُفيدة من شجرة الاحتمالات.

(١) التعلم من الأمثلة

يُسمَّى أكثر أشكال تعلُّم الآلة شيوعًا التعلم «الموجَّه». تُعطى أيُّ خوارزمية قائمة على التعلم الموجه مجموعة من الأمثلة التدريبية، والتي تُسمى كلٌّ منها حسب الناتج الصحيح، ويجب أن تنتج فرضية تتعلَّق بماهية القاعدة الصحيحة. عادةً، يسعى أيُّ نظامٍ قائم على التعلُّم الموجَّه إلى تحسين التوافُق بين الفرضية والأمثلة التدريبية. وفي الغالب، تكون هناك أيضًا عقوبة على الفرضيات المُعقَّدة أكثر مما هو ضروري؛ كما هو مُوصى به من قبل مبدأ القصد.

fig22
شكل ١: الحركات المسموح وغير المسموح بها في لعبة جو؛ الانتقال إلى المواضع «أ» و«ب» و«ﺟ» مسموح به بالنسبة إلى اللاعب الأسود، في حين أنَّ الانتقال للمواضع «د» و«ﻫ» و«و» غير مسموح به. الانتقال للموضع «ز» قد يكون أو لا يكون مسموحًا به، اعتمادًا على ما جرى في السابق في اللعبة.
دعني أُعطِ مثالًا على ذلك فيما يتعلَّق بمُشكلة تعلُّم الحركات المسموح بها في لعبة جو. (إن كنت تعرف بالفعل قواعد تلك العبة، فسيكون على الأقل تتبُّع ما هو معروض هنا سهلًا؛ وإن لم يكن الأمر كذلك، فستكون قادرًا أكثر على التعاطف مع برنامج التعلم.) افترض أنَّ الخوارزمية تبدأ بالفرضية الآتية:

لكل الخطوات الزمنية «ز»، ولكل المواضع «م»، من المسموح به وضع قطعة لعب في الموضع «م» في الوقت «ز».

إنه دور اللاعب الأسود للانتقال إلى الوضع الموضَّح في الشكل ١. تجرب الخوارزمية الموضع «أ»؛ هذا جيد. والموضعان «ب» و«ﺟ» جيدان أيضًا. ثم تجرب الموضع «د»، وهو موضع تُوجَد عليه قطعة لعب بيضاء؛ هذا غير مسموح به. (في لعبتي الشطرنج والطاولة، سيكون هذا لا بأس به؛ فهذه هي الطريقة التي يجري بها الاستحواذ على القطع.) إن الانتقال إلى الموضع «ﻫ»، وهو الموضع الذي تُوجَد به قطعة لعب سوداء، غير مسموح به أيضًا. (إنه غير مسموح به في الشطرنج أيضًا، لكن مسموح به في لعبة الطاولة.) والآن، من خلال تلك الأمثلة التدريبية الخمسة، قد تقترح الخوارزمية الفرضية التالية:

لكل الخطوات الزمنية «ز»، ولكل المواضع «م»، إذا كان «م» خاليًا في الوقت «ز»، فإنه من المسموح به وضع قطعة لعب في الموضع «م» في الوقت «ز».

وبعد ذلك، تجرب الموضع «و» وتندهش عندما تجد أن الانتقال إليه غير مسموح به. وبعد بعض البدايات الخاطئة، تستقرُّ على ما يلي:

لكل الخطوات الزمنية «ز»، ولكل المواضع «م»، إذا كان «م» خاليًا في الوقت «ز» وكان «م» غير مُحاط بقطع لعب خاصة بالمنافس، فإنه من المسموح به وضع قطعة لعب في الموضع «م» في الوقت «ز».

(تُسمَّى هذه أحيانًا بقاعدة «عدم الانتحار».) وفي النهاية، تُجرِّب الموضع «ز»، والذي يتضح أنه مسموح بالانتقال إليه. وبعد التفكير لبعض الوقت وربما القيام بالقليل من التجارب الأخرى، تستقرُّ على الفرضية التي ترى أن الموضع «ز» جيد، حتى وإن كان مُحاطًا بقطع لعب المنافس؛ لأنه يؤدي إلى الاستحواذ على قطعة اللعب البيضاء الموجودة في الموضع «د»؛ ومن ثمَّ يصبح غير محاطٍ بأي قطع لعب للمنافس على الفور.

كما يمكن أن تلاحظ من خلال التطور التدريجي للقواعد، تحدث عملية التعلم من خلال سلسلة من التعديلات التي تتمُّ على الفرضية حتى تتوافق مع الأمثلة الملحوظة. هذا شيء تستطيع أي خوارزمية تعلم فعله بسهولة. لقد صمَّم الباحثون في مجال تعلم الآلة كل أشكال الخوارزميات المبتكرة لإيجاد فرضياتٍ جيدة بسرعة. هنا، الخوارزمية تبحث في مجال التعبيرات المنطقية التي تُمثِّل قواعد لعبة جو، لكن الفرضيات يُمكنها أيضًا أن تُكوِّن تعبيراتٍ جبريةً تُمثِّل قوانين فيزيائية أو شبكات بايزية احتمالية تُمثِّل الأمراض والأعراض أو حتى برامج كمبيوتر تُمثِّل السلوك المُعقد لآلةٍ أخرى.

هناك نقطة ثانية مُهمَّة تتمثَّل في أنه «حتى الفرضيات الجيدة يمكن أن تكون خاطئة»؛ في واقع الأمر، الفرضية المذكورة سلفًا خاطئة، حتى بعد تعديلها لضمان أن الانتقال إلى الموضع «ز» حركة مسموح بها. إنها يجب أن تتضمَّن قاعدة «الأو» أو «عدم التكرار»؛ على سبيل المثال، إن كان اللاعب الأبيض قد استحوذ للتوِّ على قطعة لعب سوداء عند الموضع «ز» بالانتقال للموضع «د»، فقد لا يُعيد اللاعب الأسود الاستحواذ بالانتقال إلى الموضع «ز» حيث إن هذا يُنتج نفس الوضع ثانية. لاحظ أن تلك القاعدة تُعدُّ انحرافًا جذريًّا عما تعلَّمه البرنامج حتى الآن؛ لأنَّ هذا يعني أن ما هو مسموح به لا يُمكن تحديده من الوضع الحالي؛ بدلًا من ذلك، يجب على المرء أيضًا تذكُّر الأوضاع السابقة.

أشار الفيلسوف الاسكتلندي ديفيد هيوم في عام ١٧٤٨ إلى أن الاستقراء — أي التفكير الذي من خلاله يُمكن الوصول من ملاحظات محدَّدة إلى مبادئ عامة — لا يمكن أبدًا ضمان صحَّته.1 في النظرية الحديثة للتعلم الإحصائي، نحن لا نطلب ضمانات للصحة التامة، وإنما فقط ضمانًا بأن الفرضية التي جرى التوصل إليها «على الأرجح صحيحة على نحو تقريبي».2 يمكن لخوارزمية التعلُّم أن تكون «غير محظوظة» وترى عينة غير مُمثلة؛ على سبيل المثال، قد لا تجرب أبدًا حركة مثل الانتقال إلى الموضع «ز»، مُعتقدةً أن تلك الحركة غير مسموح بها. وقد تفشل أيضًا في توقع بعض الحالات المتطرفة الغريبة، مثل تلك المتضمنة في بعض الأشكال الأكثر تعقيدًا والنادر ظهورها من قاعدة عدم التكرار.3 لكن ما دام الكون يُوفِّر درجةً ما من الانتظام، فمن غير المحتمل جدًّا أن تنتج الخوارزمية فرضية سيئة للغاية؛ لأنَّ مثل هذه الفرضية كانت على نحو مُرجَّح جدًّا «ستُكتشف» من قبل إحدى التجارب.

يُعدُّ التعلُّم المُتعمِّق — وهو التقنية التي تسبَّبت في كل هذه الضجة التي أُثيرت عن الذكاء الاصطناعي في وسائل الإعلام — بالأساس شكلًا من أشكال التعلُّم الموجه. إنه يُمثِّل أحد أهم النجاحات التي تحقَّقت في مجال الذكاء الاصطناعي في العقود الأخيرة، لذا من المُهم فهمُ كيف يعمل. علاوة على ذلك، يعتقد بعض الباحثين أنه سيُؤدِّي إلى إنتاج نُظم ذكاءٍ اصطناعي مُضاهية للذكاء البشري في خلال بضعة أعوام، لذا، من المُهم تقييم ما إذا كان من المُحتمل أن يكون هذا صحيحًا أم لا.

من الأسهل فهمُ التعلُّم المُتعمق في سياق مُهمَّة مُعيَّنة؛ على سبيل المثال، تعلم كيفية التمييز بين الزراف وحيوانات اللاما. ففي ضوء وجود بعض الصور الفوتوغرافية المُعنونة لكلٍّ منهما، يكون على خوارزمية التعلُّم إنشاء فرضية تسمح لها بتصنيف الصور غير المُعنونة. إن أيَّ صورة، من وجهة نظر الكمبيوتر، ليست سوى جدولٍ كبيرٍ من الأعداد، كلُّ عدد منها يُماثل إحدى قِيَم الآر جي بي الثلاث لكلِّ بكسل من الصورة. لذا، بدلًا من وجود فرضية خاصة بلعبة جو تأخذ أحد أوضاع اللوح وإحدى الحركات كمدخلات وتُقرِّر ما إذا كانت الحركة مسموحًا بها أم لا، نحتاج إلى فرضية خاصَّة بالزراف وحيوانات اللاما تأخُذ جدولًا من الأعداد كمُدخلاتٍ وتتنبَّأ بفئة «الزراف أو حيوانات اللاما».

السؤال الآن هو: أيُّ نوعية من الفرضيات تلك التي نحتاجُها؟ على مدى الخمسين عامًا الأخيرة أو نحو ذلك من البحث في مجال الرؤية الحاسوبية، جرت تجربة العديد من الأساليب. الأسلوب السائد حاليًّا هو «الشبكة الالتفافية المتعمقة». دعني أوضح لك ما يعنيه هذا؛ إنها تُسمى «شبكة» لأنها تُمثِّل تعبيرًا رياضيًّا مُعقَّدًا مُؤلَّفًا بطريقة منتظمة من العديد من التعبيرات الفرعية الأصغر، والهيكل التركيبي له شكل الشبكة. (عادة ما يطلق على تلك الشبكات «الشبكات العصبونية» لأنَّ مُصمِّميها يستمدُّون إلهامهم من شبكات العصبونات الموجودة في الدماغ.) وهي تُوصف بأنها «التفافية» لأن هذه طريقة رياضية مُنمقة للقول بأنَّ هيكل الشبكة يُكرِّر نفسه بنمطٍ ثابت عبر صورة المُدخلات بالكامل. وتُوصف بأنها «مُتعمِّقة»؛ لأنَّ تلك الشبكات تشتمل في الغالب على عدة طبقات، ولأنها تبدُو رائعة ومُخيفة قليلًا.

يظهر مثال مُبسَّط في الشكل ٢؛ إنه مُبسَّط لأنَّ الشبكات الحقيقية قد تكون لها مئات الطبقات وملايين التفرُّعات. إن الشبكة في واقع الأمر عبارة عن صورة لتعبيرٍ رياضي مُعقَّد وقابل للتعديل. كل تفرُّع في الشبكة يقابل تعبيرًا بسيطًا قابلًا للتَّعديل، كما هو موضَّح في الشكل. تجري التعديلات بتغيير «الأوزان» في كلِّ مدخل، كما هو مُحدَّد من قبل «عناصر التحكُّم في الحجم». ثم يجري تمرير المجموع المرجَّح للمُدخلات عبر دالة مرور قبل الوصول لجانب المُخرجات الخاص بالتفرُّع؛ في الغالب، تتجاوز دالة المرور القيم الصَّغيرة وتسمح فقط بالقيم الأكبر.

يحدُث التعلُّم في الشبكة ببساطة بتعديل كلِّ أزرار عناصر التحكُّم في الحجم لتقليل خطأ التنبؤ في الأمثلة المعنونة. إن الأمر بسيط للغاية؛ لا تُوجَد أيُّ حِيَل ولا خوارزميات بارعة على نحوٍ خاصٍّ. إن تحديد الاتجاه الذي ستُدار فيه الأزرار لتقليل الخطأ لهو تطبيق بسيط لقواعد التفاضُل والتكامل لحساب كيف سيؤدِّي تغيير كل وزن إلى تغيير الخطأ في طبقة المُخرجات. وهذا يُؤدي إلى صيغة بسيطة لنقل الخطأ إلى الخلف من طبقة المُخرجات إلى طبقة المدخلات، مع ضبط الأزرار في أثناء ذلك.

fig23
شكل ٢: (على اليمين) تصوير مُبسَّط لشبكة التفافية مُتعمِّقة خاصة بتمييز العناصر في الصور. تجري تغذية قيم بكسلات الصور من اليسار وتُنتج الشبكة القيم عند التفرُّعين الموجودين في أقصى اليمين، مما يُشير إلى مدى احتمال أن تكون الصورة حيوان لاما أو زرافة. لاحظ كيف أن نمط الروابط الداخلية، المشار إليه بالخطوط السوداء في الطبقة الأولى، يتكرَّر عبر الطبقة بأكملها (على اليسار)؛ هذا هو أحد تفرُّعات الشبكة. هناك وزن قابل للتعديل لكلِّ قيمةٍ مُدخلة، الذي يُحدِّد للتفرُّع قدر الانتباه الذي يجب أن يُوليه لها. وبعد ذلك، تمرُّ الإشارة المدخلة الإجمالية عبر دالة مرور تسمح بمرور الإشارات الكبيرة خلالها، ولكن تتجاوز الإشارات الصغيرة.
على نحوٍ إعجازي، تنجح العملية. وبالنسبة إلى مهمة تمييز العناصر الموجودة في الصور، أبدت خوارزميات التعلم المتعمق أداءً رائعًا. ظهرت أولى بوادر هذا في تحدي إيمدج نت لعام ٢٠١٢ الذي وفَّر بيانات تدريبية تتكون من ١٫٢ مليون صورة مُعنونة من ألف فئة ثم تطلُب من الخوارزمية عنونة مائة ألف صورة جديدة.4 كان جيوف هينتون، وهو عالم نفسٍ حوسبي بريطاني، من طليعة المشاركين في أول ثورة في مجال الشبكات العصبونية في ثمانينيات القرن العشرين، مع شبكةٍ الْتفافية مُتعمِّقة كبيرة للغاية؛ إذ كانت تتكوَّن من ٦٥٠ ألف تفرُّع و٦٠ مليون مُعامِل. وصل هو ومجموعته في جامعة تورونتو إلى معدَّل خطأ إيمدج نت يصل إلى ١٥ بالمائة، وهو ما يُعدُّ تطوُّرًا هائلًا في ضوء أفضل معدَّل سابق جرى الوصول إليه والذي تمثَّل في ٢٦ بالمائة.5 وبحلول عام ٢٠١٥، كانت عشرات الفرق تستخدم طرق التعلُّم المُتعمِّق، وقد قلَّ مُعدَّل الخطأ إلى ٥ بالمائة، والذي يُشبِّه ذلك الخاص بالمبحوث الذي قضى أسابيع في تعلُّم كيفية التمييز بين الألف فئة في الاختبار.6 وبحلول عام ٢٠١٧، كان معدَّل خطأ الآلة ٢ بالمائة.

تقريبًا في نفس هذه الفترة، حدثت تطوُّرات مشابهة في تمييز الكلام والترجمة الآلية باستخدام طرق مُماثلة. وإن جمعنا هذه المجالات الثلاثة معًا، فسنجدُ أنها من أهم المجالات التطبيقية في عالم الذكاء الاصطناعي. وقد لعب التعلُّم المُتعمق أيضًا دورًا مُهمًّا في تطبيقات التعلُّم المُعزَّز؛ على سبيل المثال، في تعلُّم دالة التقييم التي يستخدمها «ألفا جو» لتقدير مدى مرغوبية الأوضاع المُستقبلية المُمكنة، وفي تعلُّم أدوات التحكم في سلوكيات الروبوتات المُعقَّدة.

حتى هذه اللحظة، نحن لدَينا فهم قليل للغاية للسبب وراء عمل التعلم المتعمق على النحو الجيد الذي هو عليه. ربما يتمثَّل أفضل تفسير في أنَّ الشبكات المتعمقة عميقة؛ فنظرًا لأنها تتكوَّن من طبقات مُتعدِّدة، فيمكن لكلِّ طبقة أن تتعلَّم تحولًا بسيطًا نسبيًّا من مُدخلاتها إلى مخرجاتها، في حين تتجمَّع تلك التحوُّلات البسيطة المتعدِّدة لتُشكِّل التحوُّل المعقَّد المطلوب للانتقال من صورةٍ ما إلى اسم فئة. بالإضافة إلى ذلك، الشبكات المتعمقة الخاصَّة بالرؤية لديها هيكل داخلي يفرض الثبات الانتقالي والثبات الحجمي؛ بمعنى أن الكلب كلب بصرف النَّظر عن مكان ظهوره في الصورة وبصرف النظر عن الحجم الذي يبدو به فيها.

هناك خاصية مُهمَّة أخرى للشبكات المُتعمقة والمتمثِّلة في أنها عادةً ما يبدو أنها تكتشف تمثيلاتٍ داخلية تُجسِّد السمات الأساسية للصور مثل العيون والخطوط والأشكال البسيطة. لا تكون أيٌّ من تلك السِّمات مُضمنة. نحن نعرف أنها موجودة لأننا بإمكاننا العمل مع الشبكة المُدربة ومعرفة أنواع البيانات التي تجعل التفرعات الداخلية (عادة تلك التي تكون قريبة من طبقة المُخرجات) حيوية. في الحقيقة، من المُمكن تشغيل خوارزمية التعلم بطريقةٍ مُختلفة بحيث تعدل الصورة نفسها لإنتاج ردٍّ أقوى في تفرُّعات داخلية مختارة. إن تكرار تلك العملية عدة مرات ينتج ما هو معروف الآن بصور «الاستهلال» (تيمنًا بفيلم «استهلال» (انسبشن) أو «الحلم العميق»)، مثل تلك التي تظهر في الشكل ٣.7 لقد أصبح الاستهلال شكلًا فنيًّا في حدِّ ذاته، والذي يُنتِج صورًا تختلف تمامًا عن الأشكال الفنية البشرية الأخرى.
fig24
شكل ٣: صورة مُنتجة من قبل برنامج «ديب دريم» الخاص بشركة جوجل.

رغم كل الإنجازات الملحوظة لنُظُم التعلُّم المتعمق، فإنها، بحسب فهمنا لها حاليًّا، بعيدة كل البُعد عن توفير أساس للنُّظُم الذكية العامة. إن نقطة الضعف الأساسية فيها تتمثَّل في أنها عبارة عن «دوائر»؛ فهي تعدُّ نظراء لمنطق القضايا والشبكات البايزية، التي، رغم كل خصائصها الرائعة، تفتقد القُدرة على التعبير عن أشكال معقَّدة من المعرفة على نحوٍ دقيق. هذا يعني أنَّ الشبكات المتعمقة العاملة في «الوضع الأصلي» تتطلَّب كمياتٍ هائلة من الدوائر لتمثيل أنواع بسيطة نسبيًّا من المعرفة العامة. وهذا، بدوره، يعني ضمنيًّا ضرورة تعلُّم أعدادٍ هائلة من الأوزان؛ ومن ثمَّ الحاجة لعددٍ غير معقول من الأمثلة؛ أكثر مما يُمكن أن يُوفِّره الكون.

يرى البعض أن الدماغ يتكوَّن أيضًا من دوائر، عناصرها هي العصبونات؛ ومن ثمَّ يُمكن أن تدعم الدوائر الذكاء المُضاهي للذكاء البشري. هذا صحيح، ولكن فقط في نفس الإطار الذي يرى أن الأدمغة مصنوعة من ذرات؛ يُمكن للذرات في واقع الأمر دعم الذكاء المضاهي للذكاء البشريِّ، لكن هذا لا يعني أن مجرَّد تجميع العديد من الذرات معًا سينتج ذكاءً. فيجب ترتيب الذرَّات بطرقٍ مُعيَّنة. وعلى نفس النحو، يجب ترتيب الدوائر بطرقٍ مُعيَّنة. وأجهزة الكمبيوتر مصنوعة أيضًا من دوائر، فيما يتعلَّق بذاكراتها ووحدات المعالجة الخاصة بها، لكن تلك الدوائر يجب ترتيبها بطرقٍ مُعيَّنة، وتجب إضافة طبقات من البرمجيات، قبل أن يكون بإمكان الكمبيوتر دعم تشغيل نُظُم التفكير المنطقي واللغات البرمجية العالية المُستوى. ولكن، في الوقت الحالي، لا يُوجد ما يُشير إلى أن نُظُم التعلُّم المُتعمق يُمكنها تطوير تلك القدرات بنفسها؛ كما أنه لا معنى من الناحية العلمية لأن نطلُب منها فعل ذلك.

هناك أسباب أخرى للاعتقاد بأن التعلم المتعمق قد يصل لمُستوًى ثابتٍ ما بعيدٍ كل البُعد عن الذكاء العام، لكن لا يتَّسع المقام هنا لتشخيص كل المشكلات؛ فلقد ذكر آخرون، داخل8 وخارج9 مجال التعلُّم المتعمق، الكثير منها. الفكرة هي أن مجرَّد إنشاء شبكات أكبر وأعمق ومجموعات بيانات وآلات أكبر ليس كافيًا لإيجاد ذكاءٍ اصطناعي مُضاهٍ للذكاء البشري. لقد رأينا بالفعل (في الملحق «ب») وجهة نظر ديمس هاسابس، المدير التنفيذي لشركة ديب مايند، التي ترى أن «التفكير الرمزي والتفكير الأعلى مُستوى» أساسيان بالنسبة إلى الذكاء الاصطناعي. وهناك خبيرُ تعلُّم مُتعمق بارز آخر يُدعى فرانسوا شوليه صاغ الأمر على النحو التالي:10 «هناك الكثير من التطبيقات البعيدة المنال تمامًا بالنِّسبة إلى أساليب التعلُّم المُتعمق الحالية؛ حتى في وجود كمياتٍ هائلة من البيانات المفسَّرة من قبل البشر. … نحن بحاجة للابتعاد عن تخطيطات المُدخلات إلى المخرجات البسيطة والاتجاه إلى التفكير والتجريد».

(٢) التعلُّم من التفكير

عندما يلحُّ عليك التفكير في شيءٍ ما، فهذا يرجع إلى أنك لا تعرف بالفعل الإجابة. فعندما يسألك شخصٌ ما عن رقم هاتفك المحمول الجديد تمامًا، فأنت على الأرجح لن تعرفه. وستقول في نفسك: «حسنًا، أنا لا أعرفه؛ ومن ثم، كيف سأجده؟» وحيث إنك لستَ مرتبطًا بشدة بالهاتف المحمول، فأنت لا تعرف كيف تجده. وستقول في نفسك: «كيف يُمكنني معرفة كيفية إيجاده؟» ستكون لديك إجابة عامة على هذا السؤال: «إنهم على الأرجح يضعونه في مكان ما يسهل على المُستخدمين إيجاده». (بالطبع، قد تكون مخطئًا بهذا الشأن.) الأماكن الأكثر احتمالًا ستتمثَّل في الجزء العلوي من الشاشة الرئيسية (إنه غير موجود هناك) أو داخل تطبيق الهاتف أو في قسم «الإعدادات» الموجود في هذا التطبيق. ستُجرِّب الانتقال إلى قسم «الإعدادات» ثم إلى قسم «الهاتف»، وستجده هناك.

في المرة التالية التي ستُسأل فيها عن رقم هاتفك، إما ستكون على علمٍ به وإما ستعرف على وجه التحديد كيف ستجدُه. إنك ستتذكر طريقة إيجاده، ليس فقط بالنسبة «لهذا» الهاتف في «هذا» الموقف، ولكن أيضًا «لكل» الهواتف المُماثلة في «كل» المواقف؛ أي ستخزن وتُعيد استخدام حلٍّ «عامٍّ» للمُشكلة. إن هذا التعميم مُبرَّر لأنك أدركتَ أن تفاصيل هذا الهاتف بعينه وهذا الموقف بعينه غير ذات صلة. وستُصدَم إن نجحت الطريقة التي تبنَّيتها فقط في أيام الثلاثاء بالنسبة لأرقام الهواتف المنتهية بالرقمَين ١٧.

توفر لعبة جو مثالًا جميلًا على هذا النوع من التعلم. في الشكل ٤(أ)، نرى موقفًا شائعًا حيث يُهدِّد اللاعب الأسود بالاستحواذ على قطعة لعب اللاعب الأبيض بالإحاطة بها. يُحاول اللاعب الأبيض الهروب بإضافة قطع لعب قريبة من قطعة اللعب الأصلية، لكن اللاعب الأسود يستمرُّ في قطع الطرق المُؤدية للهُروب. يُشكِّل هذا النمط من الحركات «سلمًا» من قطع اللعب على نحوٍ قُطري عبر اللوح، حتى يصل إلى الحافة؛ وحينها، لا يجد اللاعب الأبيض أي موضع ينتقل إليه. إن كنت اللاعب الأبيض، فأنت على الأرجح لن ترتكب نفس الخطأ مرة أخرى؛ ستُدرك أن نمط السلم «دائمًا» ما تنتج عنه في النهاية عملية استحواذ؛ وذلك بالنِّسبة «إلى أي» وضع أوَّلي و«أي» اتجاه، وفي «أي» مرحلة من اللعبة، سواء كنتَ أنت اللاعب الأبيض أو الأسود. الاستثناء الوحيد يحدُث عندما يؤدي السُّلَّم إلى بعض قطع اللعب الإضافية التي تنتمي إلى الشخص الهارب. وتنبع عمومية نمط السُّلَّم على نحوٍ مباشر من قواعد لعبة جو.
fig25
شكل ٤: مفهوم «السُّلم» في لعبة جو. (أ) يُهدِّد اللاعب الأسود بالاستحواذ على قطعة اللعب الخاصَّة باللاعب الأبيض. (ب) يُحاول اللاعب الأبيض الهروب. (ﺟ) يسد اللاعب الأسود اتجاه الهُروب. (د) يُجرِّب اللاعب الأبيض الاتجاه الآخر. (ﻫ) يستمر اللعب بالتسلسل المشار إليه بالأرقام. ويصلُ السُّلَّم في النهاية إلى حافة اللوح، حيث لا يُوجَد موضع يُمكن أن ينتقل إليه اللاعب الأبيض. الضربة القاضية تمَّت من خلال الحركة رقم ٧؛ مجموعة اللاعب الأبيض جرت الإحاطة بها بالكامل وماتت.

إن مثال رقم الهاتف غير المعروف ومثال السُّلَّم الخاص بلعبة جو يُوضِّحان إمكانية تعلم قواعد عامَّة وفعَّالة من مثالٍ واحد؛ وهو أمر مُختلف تمامًا عن ملايين الأمثلة المطلوبة للتعلُّم المتعمق. في مجال الذكاء الاصطناعي، يطلق على هذا النوع من التعلم «التعلم القائم على الشرح»؛ فعند رؤية المثال، يستطيع الكيان أن يشرح لنفسه «سبب» حدوثه على النحو الذي هو عليه ويُمكنه استنتاج المبدأ العامِّ بمعرفة العوامل التي كانت أساسية للشرح.

في حقيقة الأمر، هذه العملية لا تُضيف بنفسها معرفة جديدة؛ على سبيل المثال، يستطيع اللاعب الأبيض ببساطة استنتاج وجود وناتج نمط السُّلَّم العام من قواعد لعبة جو، دون أن يرى مُطلقًا مثالًا عليه.11 لكن الاحتمالات هي أنه لن يكتشف أبدًا مفهوم السُّلَّم دون أن يرى مثالًا عليه؛ ومن ثمَّ، يُمكننا النظر إلى التعلُّم القائم على الشرح باعتباره طريقةً فعَّالة لحفظ نتائج عملية حوسبةٍ بطريقةٍ عامة؛ وذلك من أجل تجنُّب ضرورة إعادة نفس عملية التفكير باختصار (أو ارتكاب نفس الخطأ من خلال عملية تفكير معيبة) في المُستقبل.
لقد أكَّدت الأبحاث في مجال العلوم المعرفية على أهمية هذا النوع من التعلُّم في المعرفة البشرية. فهو يعدُّ، تحت مُسمَّى «التجميع»، أحد الأعمدة الأساسية في نظرية ألن نيويل ذات التأثير الكبير الخاصَّة بالمعرفة.12 (كان نيويل أحد الحاضرين في ورشة عمل دارتموث التي عقدت في عام ١٩٥٦ وقد فاز بجائزة تورينج لعام ١٩٧٥ بالاشتراك مع هربرت سايمن.) فهو يُفسِّر كيف يُصبح البشر أكثر طلاقةً في المهامِّ المعرفية من خلال الممارسة، حيث إن المهام الفرعية العديدة التي تطلبت في السابق تفكيرًا تُصبح آلية. وبدونه، كانت ستقتصر المحادثات البشرية على ردودٍ مكونة من كلمة أو كلمتَين، وكان الرياضيون سيستمرون في العد على أصابعهم.

جميع الحقوق محفوظة لمؤسسة هنداوي © ٢٠٢٤