الرؤية

خلص الباحثون إلى أن الآلات الذكية قادرة على التعامل مع البشر بكفاءة عالية تصل إلى حد التفوق على البشر أنفسهم، ولكن فقط في حال تم السماح لها بإخفاء كونها آلة، وذلك لأن تفاعل الأشخاص مع الآلات يتأثر سلباً بمجرد كشفها عن حقيقتها غير البشرية. وذلك وفقاً لتجربة عملية لدراسة الكيفية التي يتفاعل بها الأشخاص مع الآلات التي تتظاهر بأنها إنسان، أجراها فريق من الباحثين بقيادة الأستاذ المشارك في علوم الحاسوب بجامعة نيويورك أبوظبي طلال رهوان.

وتأتي الدراسة في ظل الدور الذي تلعبه الاكتشافات والأبحاث التكنولوجية الأخيرة في مجال الذكاء الاصطناعي في المساهمة في تمكين الروبوتات والآلات من اكتساب القدرة على محاكاة تصرفات البشر.

وقدم الباحثون تجربة طُلب فيها من المشاركين التعاون مع شريك بشري أو آلي في لعبة تدعى "معضلة السجين المتكررة"، والتي تم تصميمها للتعرف على الكيفية التي يتصرف بها كل مشارك، إما بشكل أناني في محاولة لاستغلال الطرف الآخر، أو بأسلوب تعاوني يهدف لتحقيق منفعة مشتركة لكلا الطرفين.

كما عمد الباحثون إلى تقديم معلومات غير صحيحة لبعض المشاركين في التجربة عن هوية شركائهم في اللعبة، حيث قام الباحثون بإخطار بعض المشاركين الذين تفاعلوا مع البشر بأنهم يتعاونون مع آلات، فيما تم إخطار بعض المشاركين الذين تفاعلوا مع آلات أنهم يتعاونون مع البشر. وتمكن الباحثون عبر هذه التجربة من تحديد مدى التحيز ضد الشركاء الذين يُعتقد بأنهم آلات، إضافة إلى أن التجربة مكنتهم من تقييم مستوى ذلك التحيز في حال وجوده، ومدى تأثيره على كفاءة عمل تلك الآلات التي أفصحت عن هويتها غير البشرية.

وأظهرت النتائج أن الآلات التي ادعت أنها ذات طبيعة بشرية، كانت أكثر فاعلية في إقناع الشريك بالتعاون في اللعبة، ولكن وبمجرد الكشف عن هويتها الحقيقية، فإن مستوى التعاون انخفض بشدة، إلى درجة أن تفوق الآلات انعدم كلياً.

وتعليقاً على ذلك، قال الأستاذ رهوان: "على الرغم من الإجماع الواسع حول ضرورة تمتع الآلات بالشفافية فيما يتعلق بكيفية اتخاذها للقرارات، إلا أن ضرورة كشف تلك الآلات عن هويتها غير البشرية ما زال أمراً قيد النقاش. خُذ على سبيل المثال برنامج "غوغل دوبلكس"، وهو مساعد صوتي آلي يستطيع التحدث مثل البشر أثناء القيام بمهام مثل إجراء المكالمات الهاتفية وحجز المواعيد نيابة عن مستخدميه. هذا البرنامج قادر على جعل الكلام الذي يقوله يبدو واقعياً جداً إلى درجة أن الشخص الآخر ربما لا يدرك أنه يتحدث في الواقع إلى آلة. هل تطوير مثل هذه البرامج يعد أمراً أخلاقياً؟ هل يتوجب علينا منع الآلات من التظاهر بأنهم بشر وإجبارهم على كشف هويتهم؟ إذا كانت الإجابة بنعم، فإن ما توصلنا إليه من خلال التجربة التي أجريناها، يؤكد الحاجة إلى وضع معايير محددة فيما يتعلق بمستوى الكفاءة التي نحن على استعداد للتضحية بها مقابل تلك الشفافية".

أخبار ذات صلة

خطة مبتكرة من ماسك لزيادة إيرادات تويتر
أبل تعتزم تقديم شاشة حاسوب ماك تعمل باللمس