الأربعاء - 24 أبريل 2024
الأربعاء - 24 أبريل 2024

البشر عاجزون عن وقف زخم الذكاء الاصطناعي

البشر عاجزون عن وقف زخم الذكاء الاصطناعي

من السيارات ذاتية القيادة إلى أجهزة الكمبيوتر التي يمكنها الفوز ببرامج الألعاب، يمتلك البشر فضولاً طبيعياً واهتماماً بالذكاء الاصطناعي. مع استمرار العلماء في جعل الآلات أكثر ذكاءً، يتساءل البعض «ماذا يحدث عندما تصبح أجهزة الكمبيوتر أكثر ذكاءً خدمة لمصلحتها؟» من «فيلم المصفوفة Matrix» إلى «فيلم المبيد The Terminator»، بدأت صناعة الترفيه بالفعل في التفكير فيما إذا كانت الروبوتات المستقبلية ستهدد الجنس البشري يوماً ما. وخلصت دراسة جديدة إلى أنه قد لا توجد طريقة لوقف نهضة الآلات. ويؤكد فريق دولي أن البشر لن يكونوا قادرين على منع الذكاء الاصطناعي الفائق من القيام بكل ما يريد.

بدأ علماء من مركز البشر والآلات في معهد ماكس بلانك في تخيل الشكل الذي ستبدو عليه هذه الآلة، تخيل برنامج ذكاء اصطناعي يتمتع بذكاء أعلى بكثير من البشر، لدرجة أنه يمكنه التعلم من تلقاء نفسه دون الحاجة إلى برمجة جديدة. يؤكد الباحثون أنه إذا كان متصلاً بالإنترنت، فسيكون بإمكان الذكاء الاصطناعي الوصول إلى جميع بيانات البشرية، ويمكنه حتى التحكم في الأجهزة الأخرى حول العالم.

يسأل مؤلفو الدراسة ما الذي يمكن أن يفعله مثل هذا الذكاء بكل هذه القوة؟ هل سينجح في جعل حياتنا أفضل؟ هل ستكرس قوتها في المعالجة لإصلاح قضايا مثل تغير المناخ؟ أم أن الآلة تتطلع إلى السيطرة على حياة جيرانها من البشر؟

السيطرة على ما لا يمكن السيطرة عليه.. مخاطر الذكاء الاصطناعي الفائق



درس كل من مبرمجي الكمبيوتر والفلاسفة ما إذا كانت هناك طريقة تمنع الذكاء الاصطناعي الفائق من الانقلاب على صانعيه البشر، التأكد من أن أجهزة الكمبيوتر المستقبلية لا يمكن أن تسبب ضرراً لأصحابها. كشفت الدراسة الجديدة، للأسف، أنه من المستحيل عملياً الحفاظ على ذكاء فائق ضمن المسار.

ذكر المؤلف المشارك للدراسة مانويل سيبريان، قائد مجموعة التعبئة الرقمية في مركز البشر والآلات، في بيان جامعي: «تبدو الآلة فائقة الذكاء التي تتحكم في العالم مثل الخيال العلمي. ولكن هناك بالفعل آلات تؤدي مهاماً معينة بشكل مستقل دون أن يفهم المبرمجون تماماً كيف تعلمتها. لذلك فإن السؤال الذي يطرح نفسه هو ما إذا كان هذا يمكن أن يصبح الذكاء الاصطناعي في مرحلة ما غير خاضع للسيطرة وخطيراً على البشرية».

نظر الفريق الدولي في طريقتين مختلفتين للتحكم في الذكاء الاصطناعي. الأول كبح قوة الذكاء الخارق من خلال عزله ومنعه من الاتصال بالإنترنت. كما أنه لا يمكنه الاتصال بأجهزة تقنية أخرى في العالم الخارجي. مشكلة هذه الخطة واضحة إلى حد ما. مثل هذا الكمبيوتر لن يكون قادراً على فعل الكثير لمساعدة البشر.

وركز الخيار الثاني على إنشاء خوارزمية من شأنها تلقين المبادئ الأخلاقية للحاسوب العملاق. من المأمول أن يجبر هذا الذكاء الاصطناعي على مراعاة المصالح الفضلى للبشرية.

خلقت الدراسة خوارزمية احتواء نظرية من شأنها أن تمنع الذكاء الاصطناعي من إيذاء الناس تحت أي ظرف من الظروف. في عمليات المحاكاة، سيتوقف الذكاء الاصطناعي عن العمل إذا اعتبر الباحثون أفعاله ضارة. على الرغم من منع الذكاء الاصطناعي من السيطرة على العالم، يقول مؤلفو الدراسة إن هذا لن ينجح في العالم الحقيقي.

ذكر إياد رهوان، مدير مركز الإنسان والآلات أنك: «إذا قمت بتقسيم المشكلة إلى قواعد أساسية من علوم الكمبيوتر النظرية، يتضح أن الخوارزمية التي قد تأمر الذكاء الاصطناعي بعدم تدمير العالم يمكن أن توقف عملياتها عن غير قصد. إذا حدث هذا، فلن تعرف ما إذا كانت خوارزمية الاحتواء لا تزال تحلل التهديد، أو ما إذا كانت قد توقفت لاحتواء الذكاء الاصطناعي الضار. في الواقع، هذا يجعل خوارزمية الاحتواء غير قابلة للتطبيق».

وخلصت الدراسة إلى أن احتواء الذكاء الاصطناعي هو مشكلة لا يمكن حلها. لا يوجد برنامج كمبيوتر واحد يمكنه إيجاد طريقة مضمونة لمنع الذكاء الاصطناعي من التصرف بشكل ضار إذا أراد ذلك. يضيف الباحثون أن البشر قد لا يدركون حتى متى تصل الآلات فائقة الذكاء بالفعل إلى عالم التكنولوجيا.