الملحق «د»: التعلم من التجربة
يعني التعلُّم تحسين الأداء بناءً على التجربة. بالنسبة إلى نظام إدراك بصري، قد يعني هذا تعلُّم تمييز المزيد من فئات العناصر اعتمادًا على رؤية أمثلة لتلك الفئات؛ بالنسبة إلى نظامٍ قائم على المعرفة، يُعدُّ مجرَّد اكتساب المزيد من المعرفة شكلًا من التعلُّم؛ لأنه يعني أن النظام يمكنه الإجابة عن المزيد من الأسئلة؛ بالنسبة إلى نظام اتخاذ قرارٍ استباقي مثل «ألفا جو»، يُمكن أن يعني التعلُّم تحسين قدرته على تقييم الأوضاع أو تحسين قدرته على استكشاف أجزاء مُفيدة من شجرة الاحتمالات.
(١) التعلم من الأمثلة
يُسمَّى أكثر أشكال تعلُّم الآلة شيوعًا التعلم «الموجَّه». تُعطى أيُّ خوارزمية قائمة على التعلم الموجه مجموعة من الأمثلة التدريبية، والتي تُسمى كلٌّ منها حسب الناتج الصحيح، ويجب أن تنتج فرضية تتعلَّق بماهية القاعدة الصحيحة. عادةً، يسعى أيُّ نظامٍ قائم على التعلُّم الموجَّه إلى تحسين التوافُق بين الفرضية والأمثلة التدريبية. وفي الغالب، تكون هناك أيضًا عقوبة على الفرضيات المُعقَّدة أكثر مما هو ضروري؛ كما هو مُوصى به من قبل مبدأ القصد.
لكل الخطوات الزمنية «ز»، ولكل المواضع «م»، من المسموح به وضع قطعة لعب في الموضع «م» في الوقت «ز».
لكل الخطوات الزمنية «ز»، ولكل المواضع «م»، إذا كان «م» خاليًا في الوقت «ز»، فإنه من المسموح به وضع قطعة لعب في الموضع «م» في الوقت «ز».
لكل الخطوات الزمنية «ز»، ولكل المواضع «م»، إذا كان «م» خاليًا في الوقت «ز» وكان «م» غير مُحاط بقطع لعب خاصة بالمنافس، فإنه من المسموح به وضع قطعة لعب في الموضع «م» في الوقت «ز».
(تُسمَّى هذه أحيانًا بقاعدة «عدم الانتحار».) وفي النهاية، تُجرِّب الموضع «ز»، والذي يتضح أنه مسموح بالانتقال إليه. وبعد التفكير لبعض الوقت وربما القيام بالقليل من التجارب الأخرى، تستقرُّ على الفرضية التي ترى أن الموضع «ز» جيد، حتى وإن كان مُحاطًا بقطع لعب المنافس؛ لأنه يؤدي إلى الاستحواذ على قطعة اللعب البيضاء الموجودة في الموضع «د»؛ ومن ثمَّ يصبح غير محاطٍ بأي قطع لعب للمنافس على الفور.
كما يمكن أن تلاحظ من خلال التطور التدريجي للقواعد، تحدث عملية التعلم من خلال سلسلة من التعديلات التي تتمُّ على الفرضية حتى تتوافق مع الأمثلة الملحوظة. هذا شيء تستطيع أي خوارزمية تعلم فعله بسهولة. لقد صمَّم الباحثون في مجال تعلم الآلة كل أشكال الخوارزميات المبتكرة لإيجاد فرضياتٍ جيدة بسرعة. هنا، الخوارزمية تبحث في مجال التعبيرات المنطقية التي تُمثِّل قواعد لعبة جو، لكن الفرضيات يُمكنها أيضًا أن تُكوِّن تعبيراتٍ جبريةً تُمثِّل قوانين فيزيائية أو شبكات بايزية احتمالية تُمثِّل الأمراض والأعراض أو حتى برامج كمبيوتر تُمثِّل السلوك المُعقد لآلةٍ أخرى.
هناك نقطة ثانية مُهمَّة تتمثَّل في أنه «حتى الفرضيات الجيدة يمكن أن تكون خاطئة»؛ في واقع الأمر، الفرضية المذكورة سلفًا خاطئة، حتى بعد تعديلها لضمان أن الانتقال إلى الموضع «ز» حركة مسموح بها. إنها يجب أن تتضمَّن قاعدة «الأو» أو «عدم التكرار»؛ على سبيل المثال، إن كان اللاعب الأبيض قد استحوذ للتوِّ على قطعة لعب سوداء عند الموضع «ز» بالانتقال للموضع «د»، فقد لا يُعيد اللاعب الأسود الاستحواذ بالانتقال إلى الموضع «ز» حيث إن هذا يُنتج نفس الوضع ثانية. لاحظ أن تلك القاعدة تُعدُّ انحرافًا جذريًّا عما تعلَّمه البرنامج حتى الآن؛ لأنَّ هذا يعني أن ما هو مسموح به لا يُمكن تحديده من الوضع الحالي؛ بدلًا من ذلك، يجب على المرء أيضًا تذكُّر الأوضاع السابقة.
يُعدُّ التعلُّم المُتعمِّق — وهو التقنية التي تسبَّبت في كل هذه الضجة التي أُثيرت عن الذكاء الاصطناعي في وسائل الإعلام — بالأساس شكلًا من أشكال التعلُّم الموجه. إنه يُمثِّل أحد أهم النجاحات التي تحقَّقت في مجال الذكاء الاصطناعي في العقود الأخيرة، لذا من المُهم فهمُ كيف يعمل. علاوة على ذلك، يعتقد بعض الباحثين أنه سيُؤدِّي إلى إنتاج نُظم ذكاءٍ اصطناعي مُضاهية للذكاء البشري في خلال بضعة أعوام، لذا، من المُهم تقييم ما إذا كان من المُحتمل أن يكون هذا صحيحًا أم لا.
من الأسهل فهمُ التعلُّم المُتعمق في سياق مُهمَّة مُعيَّنة؛ على سبيل المثال، تعلم كيفية التمييز بين الزراف وحيوانات اللاما. ففي ضوء وجود بعض الصور الفوتوغرافية المُعنونة لكلٍّ منهما، يكون على خوارزمية التعلُّم إنشاء فرضية تسمح لها بتصنيف الصور غير المُعنونة. إن أيَّ صورة، من وجهة نظر الكمبيوتر، ليست سوى جدولٍ كبيرٍ من الأعداد، كلُّ عدد منها يُماثل إحدى قِيَم الآر جي بي الثلاث لكلِّ بكسل من الصورة. لذا، بدلًا من وجود فرضية خاصة بلعبة جو تأخذ أحد أوضاع اللوح وإحدى الحركات كمدخلات وتُقرِّر ما إذا كانت الحركة مسموحًا بها أم لا، نحتاج إلى فرضية خاصَّة بالزراف وحيوانات اللاما تأخُذ جدولًا من الأعداد كمُدخلاتٍ وتتنبَّأ بفئة «الزراف أو حيوانات اللاما».
السؤال الآن هو: أيُّ نوعية من الفرضيات تلك التي نحتاجُها؟ على مدى الخمسين عامًا الأخيرة أو نحو ذلك من البحث في مجال الرؤية الحاسوبية، جرت تجربة العديد من الأساليب. الأسلوب السائد حاليًّا هو «الشبكة الالتفافية المتعمقة». دعني أوضح لك ما يعنيه هذا؛ إنها تُسمى «شبكة» لأنها تُمثِّل تعبيرًا رياضيًّا مُعقَّدًا مُؤلَّفًا بطريقة منتظمة من العديد من التعبيرات الفرعية الأصغر، والهيكل التركيبي له شكل الشبكة. (عادة ما يطلق على تلك الشبكات «الشبكات العصبونية» لأنَّ مُصمِّميها يستمدُّون إلهامهم من شبكات العصبونات الموجودة في الدماغ.) وهي تُوصف بأنها «التفافية» لأن هذه طريقة رياضية مُنمقة للقول بأنَّ هيكل الشبكة يُكرِّر نفسه بنمطٍ ثابت عبر صورة المُدخلات بالكامل. وتُوصف بأنها «مُتعمِّقة»؛ لأنَّ تلك الشبكات تشتمل في الغالب على عدة طبقات، ولأنها تبدُو رائعة ومُخيفة قليلًا.
يحدُث التعلُّم في الشبكة ببساطة بتعديل كلِّ أزرار عناصر التحكُّم في الحجم لتقليل خطأ التنبؤ في الأمثلة المعنونة. إن الأمر بسيط للغاية؛ لا تُوجَد أيُّ حِيَل ولا خوارزميات بارعة على نحوٍ خاصٍّ. إن تحديد الاتجاه الذي ستُدار فيه الأزرار لتقليل الخطأ لهو تطبيق بسيط لقواعد التفاضُل والتكامل لحساب كيف سيؤدِّي تغيير كل وزن إلى تغيير الخطأ في طبقة المُخرجات. وهذا يُؤدي إلى صيغة بسيطة لنقل الخطأ إلى الخلف من طبقة المُخرجات إلى طبقة المدخلات، مع ضبط الأزرار في أثناء ذلك.
تقريبًا في نفس هذه الفترة، حدثت تطوُّرات مشابهة في تمييز الكلام والترجمة الآلية باستخدام طرق مُماثلة. وإن جمعنا هذه المجالات الثلاثة معًا، فسنجدُ أنها من أهم المجالات التطبيقية في عالم الذكاء الاصطناعي. وقد لعب التعلُّم المُتعمق أيضًا دورًا مُهمًّا في تطبيقات التعلُّم المُعزَّز؛ على سبيل المثال، في تعلُّم دالة التقييم التي يستخدمها «ألفا جو» لتقدير مدى مرغوبية الأوضاع المُستقبلية المُمكنة، وفي تعلُّم أدوات التحكم في سلوكيات الروبوتات المُعقَّدة.
حتى هذه اللحظة، نحن لدَينا فهم قليل للغاية للسبب وراء عمل التعلم المتعمق على النحو الجيد الذي هو عليه. ربما يتمثَّل أفضل تفسير في أنَّ الشبكات المتعمقة عميقة؛ فنظرًا لأنها تتكوَّن من طبقات مُتعدِّدة، فيمكن لكلِّ طبقة أن تتعلَّم تحولًا بسيطًا نسبيًّا من مُدخلاتها إلى مخرجاتها، في حين تتجمَّع تلك التحوُّلات البسيطة المتعدِّدة لتُشكِّل التحوُّل المعقَّد المطلوب للانتقال من صورةٍ ما إلى اسم فئة. بالإضافة إلى ذلك، الشبكات المتعمقة الخاصَّة بالرؤية لديها هيكل داخلي يفرض الثبات الانتقالي والثبات الحجمي؛ بمعنى أن الكلب كلب بصرف النَّظر عن مكان ظهوره في الصورة وبصرف النظر عن الحجم الذي يبدو به فيها.
رغم كل الإنجازات الملحوظة لنُظُم التعلُّم المتعمق، فإنها، بحسب فهمنا لها حاليًّا، بعيدة كل البُعد عن توفير أساس للنُّظُم الذكية العامة. إن نقطة الضعف الأساسية فيها تتمثَّل في أنها عبارة عن «دوائر»؛ فهي تعدُّ نظراء لمنطق القضايا والشبكات البايزية، التي، رغم كل خصائصها الرائعة، تفتقد القُدرة على التعبير عن أشكال معقَّدة من المعرفة على نحوٍ دقيق. هذا يعني أنَّ الشبكات المتعمقة العاملة في «الوضع الأصلي» تتطلَّب كمياتٍ هائلة من الدوائر لتمثيل أنواع بسيطة نسبيًّا من المعرفة العامة. وهذا، بدوره، يعني ضمنيًّا ضرورة تعلُّم أعدادٍ هائلة من الأوزان؛ ومن ثمَّ الحاجة لعددٍ غير معقول من الأمثلة؛ أكثر مما يُمكن أن يُوفِّره الكون.
يرى البعض أن الدماغ يتكوَّن أيضًا من دوائر، عناصرها هي العصبونات؛ ومن ثمَّ يُمكن أن تدعم الدوائر الذكاء المُضاهي للذكاء البشري. هذا صحيح، ولكن فقط في نفس الإطار الذي يرى أن الأدمغة مصنوعة من ذرات؛ يُمكن للذرات في واقع الأمر دعم الذكاء المضاهي للذكاء البشريِّ، لكن هذا لا يعني أن مجرَّد تجميع العديد من الذرات معًا سينتج ذكاءً. فيجب ترتيب الذرَّات بطرقٍ مُعيَّنة. وعلى نفس النحو، يجب ترتيب الدوائر بطرقٍ مُعيَّنة. وأجهزة الكمبيوتر مصنوعة أيضًا من دوائر، فيما يتعلَّق بذاكراتها ووحدات المعالجة الخاصة بها، لكن تلك الدوائر يجب ترتيبها بطرقٍ مُعيَّنة، وتجب إضافة طبقات من البرمجيات، قبل أن يكون بإمكان الكمبيوتر دعم تشغيل نُظُم التفكير المنطقي واللغات البرمجية العالية المُستوى. ولكن، في الوقت الحالي، لا يُوجد ما يُشير إلى أن نُظُم التعلُّم المُتعمق يُمكنها تطوير تلك القدرات بنفسها؛ كما أنه لا معنى من الناحية العلمية لأن نطلُب منها فعل ذلك.
(٢) التعلُّم من التفكير
عندما يلحُّ عليك التفكير في شيءٍ ما، فهذا يرجع إلى أنك لا تعرف بالفعل الإجابة. فعندما يسألك شخصٌ ما عن رقم هاتفك المحمول الجديد تمامًا، فأنت على الأرجح لن تعرفه. وستقول في نفسك: «حسنًا، أنا لا أعرفه؛ ومن ثم، كيف سأجده؟» وحيث إنك لستَ مرتبطًا بشدة بالهاتف المحمول، فأنت لا تعرف كيف تجده. وستقول في نفسك: «كيف يُمكنني معرفة كيفية إيجاده؟» ستكون لديك إجابة عامة على هذا السؤال: «إنهم على الأرجح يضعونه في مكان ما يسهل على المُستخدمين إيجاده». (بالطبع، قد تكون مخطئًا بهذا الشأن.) الأماكن الأكثر احتمالًا ستتمثَّل في الجزء العلوي من الشاشة الرئيسية (إنه غير موجود هناك) أو داخل تطبيق الهاتف أو في قسم «الإعدادات» الموجود في هذا التطبيق. ستُجرِّب الانتقال إلى قسم «الإعدادات» ثم إلى قسم «الهاتف»، وستجده هناك.
في المرة التالية التي ستُسأل فيها عن رقم هاتفك، إما ستكون على علمٍ به وإما ستعرف على وجه التحديد كيف ستجدُه. إنك ستتذكر طريقة إيجاده، ليس فقط بالنسبة «لهذا» الهاتف في «هذا» الموقف، ولكن أيضًا «لكل» الهواتف المُماثلة في «كل» المواقف؛ أي ستخزن وتُعيد استخدام حلٍّ «عامٍّ» للمُشكلة. إن هذا التعميم مُبرَّر لأنك أدركتَ أن تفاصيل هذا الهاتف بعينه وهذا الموقف بعينه غير ذات صلة. وستُصدَم إن نجحت الطريقة التي تبنَّيتها فقط في أيام الثلاثاء بالنسبة لأرقام الهواتف المنتهية بالرقمَين ١٧.
إن مثال رقم الهاتف غير المعروف ومثال السُّلَّم الخاص بلعبة جو يُوضِّحان إمكانية تعلم قواعد عامَّة وفعَّالة من مثالٍ واحد؛ وهو أمر مُختلف تمامًا عن ملايين الأمثلة المطلوبة للتعلُّم المتعمق. في مجال الذكاء الاصطناعي، يطلق على هذا النوع من التعلم «التعلم القائم على الشرح»؛ فعند رؤية المثال، يستطيع الكيان أن يشرح لنفسه «سبب» حدوثه على النحو الذي هو عليه ويُمكنه استنتاج المبدأ العامِّ بمعرفة العوامل التي كانت أساسية للشرح.