#تكنولوجيا
زهرة الخليج - الأردن 22 ابريل 2024
رغم أنه يعد واحداً من أهم أوجه التطور العلمي الحديث، وقد يسهل على البشرية عدداً كبيراً من المهام، ويسبب تقدماً هائلاً متسارعاً في شتى المجالات العلمية والطبية والصناعية وغيرها، فإن الذكاء الاصطناعي يحمل في الوقت ذاته جوانب مخيفة، وقد يؤدي سوء استخدامه من قِبَل البعض إلى توسع عمليات التضليل، والاحتيال، والسرقة، وربما الابتزاز.
التلاعب الصوتي:
رغم أن شركة «أوبن إيه آي»، ذائعة الصيت، المعروفة بابتكارها برنامج المحادثات الشهيرة «تشات جي بي تي»، والمختصة بالذكاء الاصطناعي التوليدي، أكدت أكثر من مرة أن أداة استنساخ الصوت، التي سبق أن عرضتها خلال شهر مارس الماضي، ستكون ذات استخدام محدود؛ بهدف تجنب عمليات الاحتيال، إلا أن هذا الإعلان لم يكن كافياً لطمأنة ملايين البشر حول العالم.
وضمن ذات السياق، ومع تنامي أدوات الذكاء الاصطناعي التوليدي، فلم يعد أمر إنتاج أصوات مزيفة صعباً على الإطلاق، فقد يفاجأ أحدنا باتصال يأتيه من أحد أفراد أسرته، يطلب منه - على سبيل المثال - مساعدة مالية، وعند العودة بالاتصال به مرة أخرى يؤكد لك، مراراً وتكراراً، أنه لم يقم بمحادثتك على الإطلاق، رغم أنك سمعت صوته وحديثه، وكنت متأكداً من شخصيته.
وسبق للأستاذ أحمد زهير، المحاضر والمتخصص في الذكاء الاصطناعي والروبوتات بالمعهد الهندي للتكنولوجيا، أن أكد وجود مخاطر ومخاوف متعددة مستقبلية، ناتجة عن الاستخدامات الخاطئة للذكاء الاصطناعي، كون الآلة لم تعد كما كانت عليه سابقاً؛ فقد باتت تمتلك القدرة على محاكاة البشر تماماً، وباتت تمتلك إمكانيات متطورة جداً، وبالتالي يمكن استخدامها في مجالات الخير والشر، على حد سواء.
تجنب الوقوع ضحية للاحتيال:
ولتجنب وقوع الشخص ضحية لعمليات الاحتيال؛ ينصح خبراء الأمن المعلوماتي أي شخص يتشكك في واحدةٍ من المكالمات الواردة إليه، بضرورة إغلاق الخط، ومعاودة الاتصال مع الجهة التي قامت بالاتصال به؛ للتأكد من حقيقة الاتصال.
كما ينصح الخبراء بطرح عدد من الأسئلة على المتصل لتأكيد هويته، والحديث معه في بعض القضايا الخاصة بينهما، التي قد لا يعرفها الشخص الذي ينتحل صوته.
كما أن التفكير المنطقي يعد واحداً من أهم الحلول، وإضافة لما يعرف بقاعدة انعدام الثقة؛ فلا مانع من معاودة الاتصال، والتأكد من أن المتصل هو نفسه من طلب منك أمراً ما، على سبيل المثال، قد يكون مساعدة مالية، أو القيام بمهمة ما.
وضمن ذات السياق، سبق للجنة التجارة الفيدرالية الأميركية أن قالت، في تصريح صادر عنها: «تتلقون مكالمة يُسمَع فيها صوت حفيدكم وهو مذعور، يقول إنه في ورطة كبيرة عقب تعرضه لحادث سير، واحتجازه من الشرطة؛ لكنكم قادرون على مساعدته من خلال إرسال الأموال له».
ولعدم الوقوع في مثل هذه الاحتيالات، قدم خبيرا الأمن والذكاء الاصطناعي: محمد خليف وتامر محمد، في حديث لـ«سكاي نيوز»، عدداً من النصائح، كان من أبرزها ما يلي:
- التشكيك دائماً في صحة الاتصال، والتأكد منه بأي وسيلة كانت.
- الاتصال بالشخص الذي يفترض أنه طلب منك المال، أو أي أمر آخر.
- عدم تقديم البيانات المالية والشخصية لأي شخص كان، من خلال مكالمة هاتفية، لم تجرها أنت بنفسك.
- تجنب الدخول إلى روابط مجهولة، أو مواقع غير موثوقة؛ خشية اختراق هاتفك من خلالها استخدام التسجيلات الصوتية المحفوظة بداخله.
- عدم الموافقة على شروط التطبيقات والبرامج والمواقع الإلكترونية، التي تستخدمها دون التأكد منها، وقراءتها جيداً.
وجه ناطق:
يعد هذا الأمر خطيراً جداً في حال توسع استخدامه، إذ إنه يعد مكاناً مريحاً لإجراء عمليات الاحتيال، من خلال تأكيد الشخص أنه هو نفسه من يحادثك وقيامه بإرسال فيديو مزور لك، قام بإعداده بعد حصوله على صورة ومقطع صوتي لشخص آخر.
ورغم أن «مايكروسوفت» تحاول طمأنة الناس بأن اختراعها هذا جاء للاستخدامات الإيجابية، وتريده أن يقتصر على الوجوه الصناعية الرمزية المعروفة باسم «أفاتار»، فإن الأمر يبدو مرعباً لدى كثيرين؛ لأنه بإمكان هذا البرنامج أن يحول صورة بسيطة لأحد الوجوه إلى شريط فيديو حقيقي، يظهر هذا الوجه وهو يتحرك بكل تفاصيله، ويتحدث بطريقة واقعية تبدو حقيقية تماماً في حال توفر مقطع صوتي يتم دمجه مع الصورة؛ للحصول على المقطع المشار إليه.
وكانت «مايكروسوفت» قد أكدت، عند الإعلان عن اختراع هذه الأداة، أنها ذات فوائد كبرى، وأنها قد تكون سبباً مثالياً في تعزيز المساواة في مجال التعليم، ومساعدة مَن يعانون صعوبات في التواصل، وتوفير الدعم العلاجي لمَن يحتاجونه، معتبرةً أن هذا الأمر يعد مبرراً كافياً لوجود هذه الأداة.
كما أوضحت الشركة العملاقة أنها لا تعتزم إتاحة هذه الأداة، ولن تقدم أي معلومات تقنية عنها ما دامت غير متأكدة من استخدامها بشكل صحيح ومسؤول، ضمن الأنظمة والقوانين التي تحكم هذه الأعمال والاختراعات.