"التزييف العميق".. إلى أي مدى وصلت خطورة هذه التقنية؟

"التزييف العميق".. إلى أي مدى وصلت خطورة هذه التقنية؟

حركة الوجه الطبيعية، نبرة الصوت الانسيابية، حركات العيون والفم المنسجمة، تعبيرات وتقسيمات الوجه الدقيقة.. تلك هي المعايير البصرية التي اعتدنا الاعتماد عليها للحكم على مدى دقة وحقيقة ومصداقية المحتوى البصري.

لكن كافة تلك المعايير لم تعد موثوقة الآن مع وصول تقنية "التزييف العميق" DeepFake، التي بدأت تكشف عن نفسها وتعلن عن خطورتها نظراً للإمكانيات المرعبة التي يمكنها فعلها.

ما هو "التزييف العميق"؟

تعتمد تقنية التزييف العميق بشكل رئيسي على الشبكات العصبية الإلكترونية Neural Networks، التي تعمل بنفس طريقة عمل خلايا المخ، حيث تم تغذيتها بكم ضخم من البيانات في صورة فيديوهات وصور ونصوص ومقاطع صوتية متنوعة.

وتقوم الخلايا العصبية بتحليل تلك المعلومات ودراسة كافة جوانبها، بحيث يمكن لأنظمة الذكاء الاصطناعي القائمة على تلك الخلايا أن تفهم طريقة حركة أدق ملامح الوجه عند النطق بأي حرف، أو عند القيام بأي تعبير بسيط من تعبيرات الوجه، أو كذلك فهم طريقة الكتابة أو النطق بالكلام وحتى نبرات الصوت.

بعد ذلك تأتي مرحلة التنفيذ، والتي يجري خلالها إنشاء محتوى مصطنع وغير حقيقي، ولم يقم به شخص حقيقي، وذلك قد يتخذ عدة أشكال، مثل مقطع مصور يُظهر فيه الشخص المطلوب فبركة أفعال وتصرفات كي تظهر وكأنه فعلها وقالها على أرض الواقع، أو إنشاء صور لوجوه وأشخاص غير حقيقيين، أو كذلك تسجيلات صوتية لأشخاص يعرض صوتهم بكلام لم ينطقوا به قط.

وخلال السنوات الماضية، تطورت تقنيات الذكاء الاصطناعي بشكل سريع، وتزايد الاعتماد عليها في العديد من المجالات الترفيهية، مثل صناعة السينما والدراما والإعلانات وألعاب الفيديو، وكذلك صناعة المحتوى، فالعديد من المؤسسات الإعلامية بدأت بالفعل في الاعتماد على أنظمة الذكاء الاصطناعي لإنشاء مواد صحفية دون أي تدخل بشري، وذلك عبر تدريب تلك الأنظمة على قوالب معدة مسبقًا للكتابة.

الوجه القبيح للتقنية

ولكن كأي تقنية، الوجه القبيح للتزييف العميق يأخذ العالم إلى مسار غير مسبوق نحو عالم إلكتروني لا حدود له من المحتوى المزيف وانتهاك الخصوصية.

فبحسب دراسة أجرتها شركة DeepTrace للأمن المعلوماتي عام 2019، فإن 96% من المحتوى البصري المبني على تقنية "التزييف العميق" هو محتوى إباحي تم إنشاؤه بوجوه أشخاص لم يوافقوا أبدًا على ذلك، ويتم ابتزازهم به في المقابل.

وتعد الشائعات وتزييف الحقائق كذلك من أهم الجوانب المظلمة لتطبيقات "التزييف العميق"، فخلال فترات النزاع قد يخرج مقطع مصور لأحد الأطراف على شبكة الإنترنت، يعرض خلاله تصريحات نارية قد تتسبب في تفاقم الأزمة، ولكن في حقيقة الأمر أن المقطع برمته لم يحدث ومزيف بنسبة 100%.

وقد وقع ذلك بالفعل العام الجاري خلال الأزمة الروسية الأوكرانية في بدايات العملية العسكرية في كييف، إذ انتشر مقطع مزيف للرئيس الأوكراني زيلينسكي وهو يعلن استسلامه.

وأشار البروفيسور المصري هاني فريد، أستاذ أمن المعلومات والعميد المشارك بجامعة كاليفورنيا، إلى أن مواجهة المحتوى المفبرك باستخدام "التزييف العميق" يحتاج إلى سن تشريعات وقوانين جديدة تواكب التطورات التقنية السريعة، وتغلظ من العقوبات المفروضة على من يتلاعب بالحقائق بواسطة التقنية الثورية، إلى جانب ضرورة تطوير الشركات التقنية القائمة على الشبكات الاجتماعية والخدمات الإلكترونية لخوارزمياتها وأنظمتها الآلية، بحيث تكون أكثر قدرة على رصد المحتوى المفبرك قبل أن ينتشر بشكل واسع بين المستخدمين.

وعبر مقطع فيديو نشر الشهر الماضي على يوتيوب، فإن فريد يؤكد على أن جزءًا من المسؤولية يقع على عاتق مستخدمي الإنترنت، لأنه يجب عليهم توخي الحذر والتروي قبل مشاركة أي محتوى يناقش موضوعات مثيرة للجدل، أو يعرض لقطات قد تتسبب في نشر الفوضى، بحيث يتأكد في البداية من مدى صحته ومصداقيته، قبل الضغط على أزرار إعادة النشر مثل "شير" و"ريتويت".

الأكثر قراءة

No stories found.


logo
إرم نيوز
www.eremnews.com