سيارات ذاتية القيادة، روبوتات تقوم بوظائف البشر، تكنولوجيا متطورة تُشخّص الأمراض، أنظمة ذكية تحلل نبرة الصوت وتعابير الوجه? هذا ليس سوى نماذج من طاقات الذكاء الاصطناعي الذي برز ليرسم معالم لوحة جديدة في مستقبل البشرية.
فهل فعلاً يجدر بنا القلق من وجود الذكاء الاصطناعي في حياتنا؟
استبعد الخبراء المشاركون في فعاليات ملتقى أبوظبي للأفكار? ضمن جلسة نقاشية بعنوان "الذكاء الاصطناعي: صديق فائق الذكاء" إمكانية سيطرة الذكاء الاصطناعي على البشر، واعتبروا الفكرة في حد ذاتها مَحض خيال? واصفين إيّاه بقاطرة التطور البشري، نظراً إلى المميّزات الكثيرة التي يقدمها لخدمة البشر على الصّعُد كافة (الشخصية، الطبية، الاقتصادية، التجارية والصناعية)? مؤكدين أنّه يهدف في الأساس إلى حماية البشر من أي خطر، مثل الروبوتات التي تُستخدم في حراسة المنازل والمعارك الحربية، إضافة إلى توفير المساعدة للمرضى ولأصحاب الهمم والمسنّين. وشدّد الخبراء على أن الذكاء الاصطناعي لا يُمكنه بمفرده أن يكتسب معلومات ويضع قواعد لاستخدامها، أو يتخذ القرارات بناءً على تحليل معلومات متوافرة لديه، فهو يعمل وفق خوارزمية معينة صمّمها الإنسان لهدف محدد? وبالتالي فإن أي خروج للذكاء الاصطناعي عن هذا الهدف يقع على عاتق الإنسان نفسه.
وأكد الخبراء أن عصر الذكاء الاصطناعي قادم بقوة، وعلى البشر تعلّم كيفية التعايش معه والاستفادة منه لتطوير إمكاناتهم، بهدف أخذها إلى مستويات جديدة، لكنهم في الوقت ذاته طالبوا بضرورة وضع قوانين وضوابط أخلاقية لاستخداماته، حفاظاً على الخصوصية ومنعاً لسوء استغلاله من قبل جهات مشبوهة، أو أصحاب مطامع معينة. وفي هذا السياق سألت زهرة الخليج الدكتور يان لوكون، مدير مختبر أبحاث الذكاء الاصطناعي في فيسبوك، وأستاذ بدوام جزئي لدى جامعة نيويورك، وأحد الخبراء المشاركين في ملتقى أبوظبي للأفكار، عمّا إذا كانت خصوصية الإنسان مُهدّدة في ظل التطور السريع للذكاء الاصطناعي، وإمكانية استغلال البيانات الشخصية للأفراد من قبل بعض الجهات أو الشركات لأهداف معينة، فأجاب قائلاً: "الأمر يعتمد على القوانين التي تسنّها الدول لحماية خصوصية مواطنيها. فثمّة دول تسمح بكشف البيانات الشخصية وتوفيرها لجهة ثالثة، في حين ترفض دول أخرى القيام بذلك". وأشار د.يان إلى أن الإنسان نفسه مسؤول عن كشف معلوماته الشخصية، وبالتالي يجب طرح السؤال بالشكل التالي: "من هي الجهة التي تأتمنها على معلوماتك، وهل تثق فيها؟ هل لديك ثقة بالشركة الصغيرة المطورة للتطبيق في هاتفك؟ أم بالشركات الكبرى مثل جوجل أو فيسبوك في الحافظ على خصوصية بياناتك؟".
وعن مسألة اجتياح الذكاء الاصطناعي خصوصية البشر من دون موافقتهم أو علمهم، عن طريق كاميرات أو برامج ذكية، أكد د.يان أنه في مقدور البشر مواجهة مثل هذا التعدي، ضارباً المثل بنظارات جوجل التي تم تطبيقها "لكن الناس عارضوا فكرتها ورفضوها، لأنهم لم يرتاحوا لمسألة تصويرهم طيلة الوقت ومن دون علمهم".
وشدد د.يان على دور الدول وتحديداً الحكومات، في تحديد كيفية ضمان أن تعود هذه الأنظمة المعلوماتية والتكنولوجية الحديثة بالنفع على المجتمع ككل، من دون أن تقتصر فوائدها على من يتحكمون فيها فحسب، مُشيداً بخطوة دولة الإمارات العربية المتحدة في استحداث وزارة للذكاء الاصطناعي، التي اعتبرها دليل وعي وحرص على توزيع ثمار التطور التكنولوجي بشكل سليم على الجميع".
من جهتها أكّدت الدكتورة رنا القليوبي، المؤسس المشارك والرئيس التنفيذي لشركة "أفيكتيفا"، المتخصصة في تصميم أجهزة إلكترونية قادرة على قراءة وفهم المشاعر الإنسانية، من خلال تعابير الوجه وردود الفعل، وواحدة من الخبراء المشاركين في ملتقى أبوظبي للأفكار? أن الروبوتات لن تتحكم يوماً في البشر، لأنهم هم من قاموا بتصميمها وبرمجة أنظمتها الذكية، ومن المُستبعد أن تنقلب عليهم وتصبح شريرة كما تصورها بعض أفلام الخيال العلمي.
وتابعت د.رنا قائلة: "الحديث عن تفوق الذكاء الاصطناعي على الذكاء البشري لا يُعتبر حديثاً دقيقاً، ذلك أنه لا يزال أمامنا سنوات كثيرة من التجارب للوصول إلى الذكاء الاصطناعي الخارق، الذي يستطيع أن يعبّر عن حالته النفسية ويتنبّأ بمشاعر الآخرين ويتفاعل معهم. وأنا لست قلقة على الإطلاق حيال ما يُسمّى بالتهديد الوجودي الناتج عن سيطرة الروبوتات علينا? فلن يحدث ذلك لا اليوم ولا بعد 100 عام. لكن ما يُقلقني أكثر، طريقة تصميمنا وبرمجتنا لهذه الأنظمة الذكية، وما يمكن أن ننقل إليها من أفكار متحيّزة ضد فئة معينة من البشر".
وتعتقد د.رنا، أن انتشار تكنولوجيا الذكاء الاصطناعي في مجالات الحياة كافة، سيُسهم في ظهور أنواع جديدة من الوظائف، منها تقديم استشارات وتدريب الناس على كيفية التعامل مع الروبوت. ففي المستقبل سيتشارك الإنسان مع الروبوتات والآلات الذكية في تأدية المهمات الوظيفية، وأشارت إلى أن المجتمعات التي ستحتضن التكنولوجيا بشكل أسرع ستكون في الطليعة دائماً.