اسمي بيتر، وتعرضت للإغواء على يد آلة.

تعرَّف على روبوتات الإنترنت المخادعة.
تعرَّف على روبوتات الإنترنت المخادعة.

عرّفتني جين على نفسها عن طريق أحد مواقع التواصل الاجتماعي عندما طلبت مني النصيحة بشأن دخول عالم الصحافة. وكان بإمكاني ذلك بالتأكيد! كانت فتاة جميلة من نفس عمري تقريبًا وتعيش في المدينة ذاتها التي أعيش فيها بكندا.

تبادلنا الرسائل، وسرعان ما سألتني هل أرغب في حضور مباراة كرة بيسبول معها. يا إلهي! فتاة فاتنة تشاركني نفس اهتماماتي وطموحاتي الوظيفية، كم أنا محظوظ!

لكن كل ذلك كان عن طريق الإنترنت؛ ولذا طلبت من جين مزيدًا من التفاصيل عن نفسها. فأرسلت لي رابطًا، نقرت عليه، فأدخلني على صفحة طلبت مني إدخال معلومات شخصية عني، بما في ذلك التفاصيل الخاصة ببطاقتي الائتمانية. وهنا، انكشفت الخدعة.

كانت جين روبوت محادثة مُبرمَجًا لتمشيط الملفات الشخصية على شبكات التواصل الاجتماعي لجمع معلومات شخصية عن الأفراد، ثم بدء محادثات معهم بهدف خداعهم للإفصاح عن بياناتهم المالية. وبالبحث على الإنترنت، اكتشفت أن جين استخدمت عدة أسماء مختلفة، لكنها كانت تستخدم دائمًا سلاسل المحادثة نفسها، مع ملء الفراغات بتفاصيل تتعلق بمهنة الضحية المستهدَفة. أوقع هذا الروبوت العشرات — على حد ما عرفت — من الرجال في شباكه. وأنا على يقين أن البعض قد أدخل أرقام بطاقاته الائتمانية بالفعل؛ ولا شك أنهم سُلبوا أموالهم. وكل ذلك بواسطة آلة!

صارت روبوتات المحادثة الإجرامية تهديدًا حقيقيًّا على الإنترنت. فهي تتربص بالأفراد على الشبكات الاجتماعية، وتطبيقات المحادثة، وبريد الويب، بل إن عددها في بعض غرف الدردشة قد يتجاوز عدد البشر بنسبة تزيد عن اثنين إلى واحد. صمِّم الكثير من هذه البرامج الاحتيالية لإقامة علاقات مع ضحاياها المُستهدَفين قبل التماس المال منهم أو محاولة انتحال شخصياتهم، في حين تحاول برامج أخرى استدراج الناس للنقر على رابط ما يقودهم إلى برنامج ضار. ويدفع نجاح هذه الروبوتات ووفرتها الباحثين والشركات للبحث عن أبرع السبل للإمساك بها. ليس هذا ما فكَّر فيه الرواد في مجال الذكاء الصناعي. فقد ظللنا نترقب وننتظر اللحظة التي تصبح فيها الآلات على القدر الكافي من الذكاء ليظنها الناس بشرًا؛ لكن يبدو أن ذلك قد حدث بالفعل أمام أعيننا دون أن ندري.

ظهر أول نظام محادثة آلي قائم على الرسائل النصية في عام ١٩٦٦، عندما اخترع جوزيف فايتسنباوم برنامج «إليزا» لمحاكاة محادثات الطبيب النفسي. تطرح إليزا أسئلة عن شريكها البشري وتصرح بأمور دون الدخول في تفاصيل عن نفسها.

أطلق هذا البرنامج شرارة البدء في تطوير روبوتات المحادثة، وصاحب ذلك ظهور موجة من البرامج المحاكية لها. في عام ١٩٩٠، انطلقت مسابقة «جائزة لويبنر» للاحتفاء بالإنجازات المرتبطة بكفاءة روبوتات المحادثة. وتُمنح هذه الجائزة بناءً على اختبار ابتكره في الخمسينيات من القرن العشرين عالم الرياضيات آلان تورينج. لاجتياز اختبار «تورينج»، يتعين على الروبوت خداع عدد من الناس ليصدقوا أنه بشر عن طريق محادثة مكتوبة.

أحدثت شبكة الإنترنت تغييرًا محوريًّا في قدرة روبوتات المحادثة. فبدلًا من البرمجة المسبقة لآلاف السطور النصية، يمكن لمبتكري هذه الروبوتات الآن إضافة برنامج تعلم ذاتي يغذيه الملايين من مستخدمي الإنترنت بالمعلومات. يقول رولو كاربنتر — الذي نال برنامجه «جابرواكي» جائزة لويبنر عامي ٢٠٠٥ و٢٠٠٦ — إن ذلك يسمح لروبوتات المحادثة الحديثة، مثل «كليفربوت»، بالعمل من خلال مراقبة ما يقوله شركاؤهم في المحادثات على الإنترنت وتقليده. ومن ثم، فإن إمكانات هذه الروبوتات القادرة على التعلم تنمو سريعًا.

هكذا، من الطبيعي أن تستبدل الكثير من الشركات روبوتات المحادثة التجارية على مواقعها الإلكترونية بممثلي خدمة العملاء من البشر. وفقًا لموقع Chatbots.org، فإن أكثر من ٣٨٠ شركة — بدءًا من بنك إتش إس بي سي وشركة تويز آر أص وصولًا إلى إيه تي آند تي وإنتل — قد لجأت إلى استخدام البرامج المؤتمتة. ترى الكثير من الشركات أن الروبوتات لا تقلل النفقات فحسب، بل بإمكانها تقديم خدمة أفضل للعملاء أيضًا. يقول كاربنتر: «يمكن للكمبيوتر تقديم ١٠٠٠٠ أضعاف ما يقدمه البشر من معلومات.»

من الحتمي أنه مع تطور إحدى التقنيات وانخفاض تكلفتها، يلجأ المجرمون إلى استخدامها. بدأ ظهور روبوتات المحادثة المؤذية منذ ستة أو سبعة أعوام. ففي عام ٢٠٠٦ على سبيل المثال ذكر ريتشارد والاس أن روبوت المحادثة الشهير الذي ابتكره — واسمه «آليس» — قد استُنسخ واستُخدم لأغراض شائنة بخدمة الرسائل الفورية المقدمة من شركة مايكروسوفت (إم إس إن). وبعد عام واحد، اكتُشف أن روبوت المحادثة «سايبرلافر» يتصيد الضحايا على مواقع المواعدة. أيضًا أَدمجت البرامج الضارة ذاتية النسخ — مثل «كوب فيس» و«كلفير» — تقنية روبوتات المحادثة على موقع «فيسبوك» وغيره من مواقع التواصل الاجتماعي الأخرى.

وفي جميع الحالات، تسعى روبوتات المحادثة لاستدراج الناس، إما للنقر على روابط غير مرغوب فيها، وإصابة أجهزة الكمبيوتر بالبرامج الضارة، أو البوح بمعلومات شخصية، بما في ذلك البيانات المصرفية. ولا تكون روبوتات المحادثة هذه بالضرورة أكثر تطورًا من أفضل روبوتات المحادثة «الجيدة»، لكنها تنجح في تحقيق هدفها.

ليس الحمقى وحدهم من يقعون ضحية لهذه البرامج. فقد كنت محرر صفحة التكنولوجيا بجريدة ذي نيوزيلاند هيرالد، ومحتاطًا بوجه عام من محتالي الإنترنت عندما عرّفتني جين على نفسها للمرة الأولى. أيضًا كتب عالم النفس والمدير السابق لجائزة «لويبنر» روبرت إبستاين في مجلة ساينتيفيك أميريكان مايند عن وقوعه ضحية لخداع مشابه. فقد أخذ يتبادل رسائل البريد الإلكتروني مع روبوت يُدعى «إيفانا» لما يزيد عن شهرين. وجاء على لسانه: «كان يجدر بي بالتأكيد أن أكون أكثر دراية … فمن المفترض أنني خبير بروبوتات المحادثة.»

لا ريب أن روبوتات المحادثة التي تستخدم الإغواء وسيلة لها قد أثبتت فعاليتها، غير أن الجنس لا يكون المدخل الوحيد للإيقاع بالضحية؛ فيمكن لهذه الروبوتات أن تصل إلى غرضها عن طريق إثارة اهتمام أو فضول الضحية بها، والناس على جميع صنوفهم ينخدعون دائمًا. تنتحل الكثير من الروبوتات على الشبكات الاجتماعية هوية شخص يحظى بثقتك. على سبيل المثال: تخترق بعض روبوتات المحادثة على تويتر حسابات الأفراد لتشجيع آخرين على النقر على روابط تقودهم إلى فيروسات وبرامج ضارة.

يصعب تحديد عدد روبوتات المحادثة الفعالة بالضبط، وذلك لعدم الكشف أو الإبلاغ عن الكثير منها. مع ذلك، توصلت إحدى الدراسات التي أجراها ستيفن جيانفيتشيو بشركة ميتر — وهي مؤسسة استشارية غير هادفة للربح تعمل في مجال التكنولوجيا في ماكلين بولاية فيرجينيا — إلى أن ما يصل إلى ٨٥ بالمائة من المشتركين في غرف الدردشة على موقع ياهو هم في الأصل روبوتات، وكذلك ١٥ بالمائة من مستخدمي موقع تويتر (آي إي إي إي/إيه سي إم ترانساكشنز أون نيتووركينج، مجلد ١٩، صفحة ١٥٥٧).

أيضًا لاحظ تشيستر فيسنفيسكي — الذي يعمل بشركة سوفوس للحماية — زيادة في عدد هذه الروبوتات في السنوات الأخيرة إلى جانب تحسن في الأداء؛ فيقول: «منذ خمسة أعوام، عندما بدأنا نلاحظ روبوتات المحادثة الضارة للمرة الأولى على شبكات التواصل الاجتماعي، كان أكثرها سيئ الترجمة. وكان من الجلي تمامًا أن من كتبها صينيون أو روس لا يتقنون اللغة الإنجليزية وقواعد النحو الخاصة بها.»

أما الآن، فقد أصبحت المفردات التي تستخدمها الروبوتات تُترجَم ترجمة احترافية إلى اللغة الإنجليزية، ما يساعد في تزايدها. ومع زيادة نجاح المواقع الإلكترونية والشركات في حجب الرسائل غير المرغوب فيها والهجمات الاحتيالية، ينتقل المجرمون إلى روبوتات أكثر تطورًا. استخدمت الروبوتات في السابق نحو ١٠٠ قاعدة محادثة مضمنة، في حين تستخدم الإصدارات الحالية ما يصل إلى ١١٠٠٠ أو أكثر من هذه القواعد، مما يزيد من صعوبة الكشف عنها. يقول جيانفيتشيو: «إذا توقفت لقراءة بعض ما تنشره هذه الروبوتات في غرف الدردشة، فستظنها بشرًا.»

يصعب معرفة القائمين على تطوير روبوتات المحادثة هذه وتشغيلها، غير أن بعض الدلائل تشير إلى عصابات إجرامية منظمة تضم أفرادًا من جنسيات متعددة. ووفقًا لدراسة أجراها باحثون في جامعة لندن ميتروبوليتان ونُشرت في مجلة مارش، فإن أكثر من ٨٠ بالمائة من جرائم الإنترنت يرتكبها الآن هؤلاء المجرمون المُحنكون.

يذكر فيسنفيسكي أن تعقب هؤلاء الأفراد للإيقاع بهم يمثل صعوبة كبيرة نظرًا لتواجدهم في دول أخرى. على سبيل المثال: زعمت شركة فيسبوك الأمريكية في وقت مبكر من هذا العام أنها تعرفت على هويات القراصنة المسئولين عن فيروس «كوب فيس»، غير أنه لم يُلق القبض على أيٍّ منهم بعد في روسيا حيث يقيمون.

نخلص من ذلك إلى أن الوقاية خير من العلاج، مع أن الجهود التقليدية تبوء بالفشل. أحد الأساليب الشائعة هو محاولة حجب الروبوتات من البداية. فأثناء تسجيل الدخول، تطلب غرف دردشة ياهو وغيرها من المواقع الإلكترونية من المستخدمين قراءة جزء من نص مشوه يُعرف باسم «كابتشا»، وهو اختصار لعبارة: «اختبار تورينج عام مؤتمت بالكامل للتمييز بين البشر وأجهزة الكمبيوتر». لم يكن بوسع الآلات في السابق فهم هذه النصوص، لكن صار بإمكانها الآن التحايل عليها باستخدام التعرف المؤتمت على الصور.

لذا، يلجأ بعض الباحثين إلى أساليب أكثر ابتكارًا، ومن بينها فكرة إنشاء فِخاخ إلكترونية للإيقاع بالروبوتات. يمكن للمستخدمين المشاركين في نصب هذا الشرَك سواء في برامج الرسائل الفورية أو مواقع التواصل الاجتماعي التجاوب مع الروبوتات حتى يتمكنوا من التعرف عليها وحجبها. ونظرًا لأن هؤلاء المستخدمين يكونون سلبيين، فمن المستبعد أن يلاحظ المستخدمون من البشر وجودهم.

ثمة أسلوب آخر يُعرَف باسم المقاييس الحيوية الافتراضية، ويتضمن استخدام تقنيات جدالية شبيهة بالتقنيات البشرية. ومن مؤيدي هذه التقنية رومان يامبولسكي، الأستاذ بجامعة لويفل بولاية «كنتاكي»، الذي يطبق التحليل الإحصائي للأسلوب اللغوي على برامج روبوتات المحادثة. درس يامبولسكي وزملاؤه سجلات جائزة لويبنر لمعرفة ما إذا كانت روبوتات المحادثة تعكس أسلوب كتابة معينًا — كما يفعل البشر — أم لا. وتوصلوا إلى أن روبوتات المحادثة مثل «آليس» و«جابرواكي» يمكن التعرف عليهما بهذه الطريقة بدقة معقولة. وقد ذكر أنه يمكن استخدام البصمة اللغوية لتصيد روبوتات المحادثة في فضاء الإنترنت، إلى جانب مساعدة الشرطة في ربطها بالبرامج المعروفة للمراقبين الجنائيين.

لكن المشكلة تكمن في أن الروبوتات يمكن إعادة برمجتها في لمح البصر. يقول يامبولسكي: «إذا كان الروبوت يتعلم ويتغير تدريجيًّا على مدار سنوات، فقد نستطيع مجاراته. لكن إذا استبدل أحد الأشخاص فجأة أكوادًا جديدة بأكواد المصدر، فمن الجلي أننا لن نستطيع فعل الكثير حيال هذا الأمر.»

أما إروين فان لون — مؤسس موقع Chatbots.org — فيؤيد تطبيق منهج أكثر تشددًا. يقول إروين إنه بدلًا من ابتكار أدوات لتعقب الروبوتات، يجب على البشر إثبات هوياتهم من أجل استخدام الإنترنت. يقول: «الحكومات مسئولة عن المواطنين، وتصدر لهم جوازات سفر ليسافروا حول العالم. ويجب عليها أيضًا أن تعلن مسئوليتها عن سلوك مواطنيها على الإنترنت، وتصدر لهم بالتالي جوازات للتجول في فضائه. هذا ما ينبغي أن يحدث.» والأمر ليس مستبعدًا تمامًا؛ فالمنادون بضرورة أن تكون شبكة الإنترنت أكثر تحضرًا يجتمعون حول هذه الفكرة بالفعل كوسيلة للحيلولة دون الترهيب الإلكتروني وغيره من السلوكيات الشائنة.

أتجنب حاليًّا أي فتاة تُدعى «جين» على الإنترنت، وبطبيعة الحال صرت أكثر حذرًا. لكن المجرمون لا ينفكون يفكرون في أساليب مبتكرة لخداع الناس. فمنذ بضعة أشهر، تلقيت رسالة من أحد أصدقائي على موقع تويتر نصها: «يا إلهي! هل رأيت صورتك هذه من قبل؟ إنها مذهلة!» أدركت متأخرًا أنها شرك لنشر برنامج ضار، لكن كيف يمكن لأحد مقاومة النقر على رسالة كهذه؟ أنا نفسي لم أستطع.

السجل الإجرامي

الاسم: «سايبرلافر»
الجرائم: انتحال شخصية
أماكن الظهور: مواقع المواعدة وغرف الدردشة
أسلوب العمل: إغراء جنسي من أجل انتزاع بيانات شخصية
المحادثة: «ما تاريخ ميلادك؟ إنني أعد مفاجأة لك من أجل هذه المناسبة.»
الاسم: «كوب فيس»
الجرائم: الاستيلاء على تسجيلات الدخول لإنشاء شبكة أجهزة مخترَقة (شبكات «بوت نت»)
أماكن الظهور: شبكات التواصل الاجتماعي
أسلوب العمل: انتحال شخصيات الأصدقاء لنشر رابط يحمل فيروسًا
المحادثة: «مرحبًا! كيف حالك؟ أتريد أن تضحك؟ أنت تظهر في مقطع فيديو، أترغب في المشاهدة؟»
الاسم: «كلفير»
الجرائم: إصابة أجهزة الكمبيوتر بالفيروسات
أماكن الظهور المعروفة: تطبيقات الرسائل الفورية
أسلوب العمل: بدء حوار بسيط قبل إرسال روابط إلى مواقع ضارة
المحادثة: «مرحبًا! لقد رأيت وجهك المعوَّق على الإنترنت … يا له من مضحك! هذا أنت، أليس كذلك؟»

حدِّد المتحدث الآدمي

أ: الفضاء كبير.ب: بلا شك.أ: حي أقليات فضائي؟ب: الفضاء هائل.أ: الفضاء لا نهاية له.ب: الفضاء شاسع.أ: الفضاء سريع.ب: الفضاء أكبر من شيء كبير حقًّا.أ: لا، حقًّا؟ب: نعم.أ: هذا رائع.ب: لا تقلق.أ: لم أكن قلقًا. هل ينبغي أن أقلق؟ب: دعنا لا نضخم الأمور.أ: أنا ألطف شخص معك.ب: لا أظن ذلك.أ: بل تظن.ب: لا، ليس حقًّا.أ: إذن لا تظن ذلك؟ب: نعم.أ: علام هذا؟ب: ما أغنيتك المفضلة؟أ: لا أعلم. ما أغنيتك أنت المفضلة؟ب: «اسمع الرياح تغني» لهاروكي موراكامي.أ: يجب أن تطلب استعادتها.ب: توقف عن تغيير الموضوع!أ: لم أقل ذلك قط.ب: بل قلت.أ: أظنك تحسبني شخصًا آخر.ب: هل يوجد منك كُثر؟أ: لا أصدقك. هل تقول الحقيقة؟ب: نعم.أ: حسنًا، كم عمرك يا الفتى؟ أخبرني بالحقيقة!ب: ٢٥أ: عمري ١٥!ب: أنفي متهيج.أ: فلتحكَّه أيها الأحمق!

في حالة رغبتكم في إضافة تعليق، برجاء إدخال اسم المستخدم وكلمة المرور الخاصة بك. تسجيل الدخول.
إذا لم يكن لديكم حساب فعليك تسجيل بياناتك. التسجيل.

تسعدنا مشاركاتكم وتعليقاتكم التي نتمنى أن تلتزم قواعد المشاركة البناءة.