تحليل جديد لمركز معلومات الوزارة يبحث في مخاطر التزييف العميق.
كتبت نسمة أسامة :
نشر مركز المعلومات ودعم اتخاذ القرار التابع لأمانة مجلس الوزراء تحليلاً جديداً حول التزييف العميق. يشرح التحليل مفهوم التزييف العميق، وكيفية عمل هذه التكنولوجيا، واستخدامات التزييف العميق، والمخاطر الناجمة عنها، وكيفية اكتشافها، وذلك استنادًا إلى اعتماد المستخدمين المتزايد على تقنيات الذكاء الاصطناعي.
يُظهر التحليل أن استخدام التكنولوجيا في مجالات مختلفة مثل الحوسبة السحابية والذكاء الاصطناعي والأمن السيبراني أصبح مهمًا في جميع مجالات الحياة، بما في ذلك الاتصالات والصناعة والتجارة والتعليم والصحة والترفيه.
وعلى الرغم من أهمية استخدام التكنولوجيا والفوائد التي تجلبها إلا أنها تواجه عدداً من التحديات المتعلقة بالخصوصية والبيانات المزيفة.
ويشير المركز إلى أن اعتماد المستخدمين المتزايد على تكنولوجيا الذكاء الاصطناعي يعكس التطور السريع للتكنولوجيا وتأثيرها الهائل على الحياة اليومية. وتعكس هذه الزيادة الثقة المتزايدة في القدرات التي يمكن أن يقدمها الذكاء الاصطناعي لتحسين الكفاءة وتبسيط العمليات في مجموعة متنوعة من القطاعات.
من المتوقع أن يتضاعف عدد الأشخاص الذين يستخدمون أدوات الذكاء الاصطناعي في جميع أنحاء العالم بأكثر من الضعف منذ عام 2020، ليصل إلى 254.8 مليون شخص بحلول عام 2023. ومن المتوقع أن يستمر هذا النمو في عدد مستخدمي الذكاء الاصطناعي ليصل إلى أكثر من 700 مليون مستخدم بحلول عام 2030.
يشير التحليل أيضاً إلى أن الانتحال العميق هو تقنية تستخدم البرمجيات الرقمية والتعلم الآلي ومعالجة الوجه لإنشاء صور ومقاطع فيديو مزيفة. وتعتمد هذه التقنية على دمج الصور لإنشاء صور جديدة تصور أحداثاً أو تعبيرات أو أفعالاً لم تحدث في الواقع. ومع ذلك، من الصعب اكتشاف وتقييم حقيقة هذه الصور ومقاطع الفيديو.
لذلك، فإن فكرة أن التسجيلات الصوتية والفيديو للواقع هي دليل على صحة البيانات والمعلومات هي فكرة مشكوك فيها. ويستفيد مجرمو الإنترنت من هذه التقنيات لتعزيز قدراتهم في مجال الاحتيال، بما في ذلك إنتاج المواد الإباحية التي تشوه سمعة أفراد معينين بغرض الانتقام أو الابتزاز، وإنتاج ونشر البيانات والبيانات والمعلومات المضللة بغرض خلق البلبلة أو الاحتيال المالي أو التدخل في الانتخابات أو الأزمات الدبلوماسية – وهو تهديد ناشئ على مستوى الأفراد والمؤسسات والمجتمع.
ووفقًا للتحليل، هناك أنواع مختلفة من تقنيات التزييف العميق تندرج تحت الفئات التالية
1- المحتوى المرئي: يستخدم التزييف العميق لإنشاء الصور ومقاطع الفيديو ويمكن أن يتم بالطرق التالية
- تبديل الوجوه: في صورة أو فيديو يتم فيه تبديل الوجوه، حيث يتم وضع وجه مزيف فوق رأس الهدف.
- صور مُقدَّمة بالكامل: بدلاً من تبديل الوجوه، يتم إنشاء وجه جديد تمامًا من الصفر ليبدو واقعيًا.
- مقاطع فيديو مزامنة الشفاه: مقاطع تجعل بعض الكلمات أو النصوص تبدو واقعية مع حركات الشفاه، على الرغم من عدم وجود نص في الفيديو الرئيسي.
2- المحتوى الصوتي: يتم تشويه الصوت واستبداله. إما أن يتم استخدام ملفات صوتية تحتوي على كلام مزيف غير منطوق بالفعل ولكن بنفس صوت الشخص، أو يتم تغيير نبرة صوت الشخص لإظهار مشاعر أو سلوك غير واقعي.
يُظهر التحليل أن مقاطع الفيديو المزيفة العميقة يتم إنشاؤها باستخدام نظامي ذكاء اصطناعي: المولد و ديسترمينيتور. عندما يقوم نظام المولد بإنشاء مقطع فيديو جديد، يتم إرساله إلى نظام التمييز لتحديد ما إذا كان الفيديو حقيقيًا أو مزيفًا. بمجرد أن يؤكد نظام التمييز أن الفيديو حقيقي، يبدأ المولد في تعلم كيفية إنشاء فيديو أكثر واقعية وتستمر العملية في التطور.
يُطلق على هذين النظامين معًا اسم شبكة الخصومة التوليدية (GNN). في البداية، يتطلب نظام المولد تدريبًا مستمرًا. وبمجرد أن يصل إلى مستوى مقبول من الجودة، يبدأ في تغذية الفيديو إلى المميّز. كلما أصبح المولد أكثر ذكاءً، أصبح المميّز أكثر ذكاءً. والنتيجة هي فيديو مُحسَّن بالكامل ومقنع للعين البشرية. يوضح الرسم البياني أدناه كيفية عمل هذه التقنية. وقد أخذ التحليل في الاعتبار الاستخدامات الإيجابية التي تنطوي عليها تقنية التزييف العميق، والتي نورد أهمها أدناه:
- الاستخدامات الطبية والتعليمية: يمكن استخدام التزييف العميق لإنشاء عمليات محاكاة تفاعلية للجراحة وغيرها من الإجراءات، مما يوفر فرصاً تعليمية قيّمة لطلاب الطب والمهنيين. كما يمكن استخدامها لدعم تطوير أدوات هامة لإمكانية الوصول. على سبيل المثال، استخدمت شركة Lyrebird الكندية تقنية التزييف العميق لمساعدة مرضى التصلب الجانبي الضموري على التواصل من خلال إعادة إنشاء أصواتهم عندما يفقدون القدرة على الكلام، مما يمكّن الأشخاص من “الاستمرار في التحدث” من خلال تقنية التزييف العميق.
- يمكن استخدام التزييف العميق في صناعة الترفيه في الأفلام والإعلانات التجارية والعروض الإخبارية. يمكن أن تخلق مؤثرات خاصة أكثر واقعية وتسمح للممثلين بإعادة تمثيل أدوارهم بعد الموت.
- الصحافة: يمكن أن تساعد تقنية الديبفيك في إعادة تمثيل الأحداث التاريخية ولفت الانتباه إلى القضايا المهمة. على سبيل المثال، يحاكي مشروع “التعاطف العميق”، وهو مشروع مشترك بين اليونيسف ومعهد ماساتشوستس للتكنولوجيا، ما يمكن أن يحدث إذا واجهت مدن أخرى صراعاً مشابهاً لما حدث في سوريا في زمن الحرب. وتهدف الصور المركبة لنيويورك ولندن وبوسطن وغيرها من المدن التي دمرها عدم استقرار مماثل إلى إثارة التعاطف مع الضحايا الحقيقيين في سوريا وغيرها.
- خدمة العملاء من خلال خدمة المساعد الافتراضي المستخدمة لتقديم خدمة العملاء في مراكز الاتصال.
كما يسلط التحليل الضوء على المخاطر الرئيسية للتزييف العميق على النحو التالي
- التسبب في أزمة سياسية: يمكن استخدام التزييف العميق للتضليل السياسي.
- التهديد الأمني: التزييف العميق سلاح جديد يمكن أن يؤثر على كل شيء من أسعار سوق الأسهم إلى الانتخابات. يمكن لهذه التقنية أن تستخرج كلمات وتصريحات مثيرة من رجال الأعمال والسياسيين. أحد أشكال هذا التهديد الأمني: فبركة تصريحات مسيئة من السياسيين؛ وخلق مشاهد عنف وهجمات مزيفة؛ وخلق صور وتصريحات مزيفة من المديرين التنفيذيين للشركات للتأثير على أسعار أسهم الشركات.
- الابتزاز السيبراني: مضايقة الضحايا من خلال جعل أشخاص غير موجودين يظهرون في مقاطع فيديو.
- توفر برمجيات وتقنيات التزييف العميق: انتشار البرمجيات المستخدمة في التزييف العميق وانتشار المواقع الإلكترونية التي تم إنشاؤها لهذا الغرض، مما يسهل استخدام هذه التقنيات وانتشارها.
- صعوبة اكتشاف تقنيات التزييف العميق: يمكن لأي شخص استخدام تقنيات التزييف العميق، ولكن ما لم تكن هناك برمجيات متخصصة للكشف عن التزييف العميق، فمن الصعب اكتشاف التزييف العميق.
- تسهيل الاحتيال: يتم التلاعب بالناس للقيام بأشياء ضارة، على سبيل المثال مشاركة المعلومات السرية.
- فقدان الثقة وفقدان المصداقية: بالطبع، إذا تم نشر مقاطع الفيديو والصور على الإنترنت، سيشك الناس في صحة هذه الصور ومقاطع الفيديو، مما سيؤدي بهم إلى الشك في صحة جميع الصور ومقاطع الفيديو، حتى لو كانت حقيقية.
- التأثير على الانتخابات استُخدمت الـ ديبفيك لتشويه صورة بعض السياسيين من خلال نشر الشائعات عن المرشحين أو إنشاء مقاطع فيديو تشوه التصورات أثناء الانتخابات من أجل التأثير على العملية الانتخابية لصالح حزب أو أيديولوجية معينة.
يُظهر التحليل أيضًا أنه مع تطور تكنولوجيا التزييف العميق، تطورت أساليب الكشف عن التزييف العميق وفقًا لذلك. فيما يلي أهم خمس طرق مستخدمة للكشف عن التزييف العميق
- Sentinel: يمكن للمستخدمين تحميل الوسائط الرقمية من خلال المواقع الإلكترونية. يستخدم خوارزميات ذكاء اصطناعي متقدمة لتحليل الوسائط التي تم تحميلها وتحديد ما إذا كان قد تم التلاعب بها.
- إنتل FakeCatcher في الوقت الحقيقي: يمكن لهذه التقنية اكتشاف مقاطع الفيديو المزيفة بدقة 96% وتقديم النتائج في أجزاء من الثانية. تستخدم هذه التقنية ما يُعرف باسم تدفق الدم. عندما يتحدث شخص ما في مقطع فيديو، يتغير لون الأوردة بسبب تدفق الدم من القلب، لذلك يتم جمع إشارة تدفق الدم هذه من الوجه بالكامل وتقوم الخوارزمية بتحويل هذه الإشارات إلى خريطة مكانية زمانية قبل اكتشاف الفيديو على أنه صحيح أو خاطئ. – WeVerify: يتم تحليل وسائل التواصل الاجتماعي ووضعها في سياق النظام البيئي الأوسع على الإنترنت وتستند إلى قاعدة بيانات عامة قائمة على سلسلة الكتل (blockchain) للتزييفات المعروفة.
- أداة توثيق الفيديو من مايكروسوفت: يمكن لهذه الأداة تحليل مقاطع الفيديو والصور الثابتة، وتحليل عمليات التزوير العميقة والمناطق الرمادية الدقيقة التي لا يمكن للعين البشرية اكتشافها في الوقت الحقيقي.
- استغلال التناقضات الصوتية/المرئية: تستغل هذه التقنية حقيقة أن البصمات التي تشير إلى ديناميكيات شكل الفم قد تكون مختلفة أو غير متوافقة مع الصوت المنطوق. هذا التناقض هو أحد عيوب التزوير العميق. وتعتمد هذه التقنية على خوارزميات ذكاء اصطناعي متقدمة تقوم بتحليل الفيديو واكتشاف التناقضات.
يُظهر هذا التحليل أن التزوير العميق يبرز كتقنية مثيرة للجدل تجمع بين الإبداع الفني والتحديات الأخلاقية والأمنية. وعلى الرغم من فوائد استخدامها في العديد من المجالات، بما في ذلك الفن والترفيه والتعلم والطب، إلا أن القلق الرئيسي يظل هو استخدامها للتلاعب بالمعلومات والتأثير على الرأي العام. لذلك، لا بد من تحديد استراتيجيات مبتكرة وتطويرها لمواجهة هذه التحديات بفعالية، سواء كان ذلك بتطوير تقنيات الكشف عن التزييف أو توعية الجمهور بمخاطرها. وختاماً، يبقى التوازن بين التقدم التكنولوجي وحماية الأمن والسلامة من أهم التحديات التي نواجهها في هذا العصر الذي يشهد انتشار التزييف على نطاق واسع.
تحذير هام.. فوضى الذاكرة تسرع من شيخوخة الدماغ!
دراسة جديدة تحدد نمطاً دماغياً يسمى “تقلب التردد بيتا” والذي يتنبأ بأداء الذاك…