تعبيرية
تعبيريةرويترز

هل تنجح "ميتا" في كشف فبركات الذكاء الاصطناعي؟

كشفت شركة "ميتا" عن تقديمها تقنية جديدة يمكنها اكتشاف وتصنيف الصور الناتجة عن أدوات الذكاء الاصطناعي الخاصة بالشركات الأخرى.

وستقوم التقنية الجديدة بتسمية صور الذكاء الاصطناعي التي تم إنشاؤها بواسطة أنظمتها الخاصة، آملة أن يخلق ذلك زخماً لمعالجة تزييف الذكاء الاصطناعي.

وأطلق خبراء المعلومات عبر الإنترنت والمشرعون وحتى بعض المديرين التنفيذيين في مجال التكنولوجيا تحذيرات من أدوات الذكاء الاصطناعي الجديدة القادرة على إنتاج صور واقعية.

ويتوقع أن تسهل تلك الصور نشر معلومات كاذبة يمكن أن تضلل الناخبين قبل انتخابات عام 2024 في الولايات المتحدة وعشرات الدول الأخرى.

وتأتي هذه الإنذارات أيضًا بعد انتشار مقطع فيديو مزيف تم تعديله للرئيس الأمريكي جو بايدن يظهر فيه مع حفيدته ويبدو كما لو كان يلمسها بشكل غير لائق.

تحديد وتصنيف الصور

تعمل شركة "ميتا" على تحديد وتصنيف الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي تمت مشاركتها على منصاتها التي تم إنشاؤها بواسطة أدوات تابعة لجهات خارجية.

وتستعد "ميتا" لانتخابات 2024، وسط انتشار أدوات الذكاء الاصطناعي التي تهدد بتشويش النظام البيئي للمعلومات، حيث ستبدأ في الأشهر المقبلة بإضافة تسميات "مولدة بالذكاء الاصطناعي" للصور التي تم إنشاؤها بواسطة أدوات من "غوغل" و"مايكروسوفت" و "أوبن إي آي" و"أدوبي" و"ميدجورني" و"شاترستوك".

وستطبق "ميتا" بالفعل علامة "متخيلة باستخدام الذكاء الاصطناعي" على الصور الواقعية التي تم إنشاؤها باستخدام أداة خاصة بها.

ولاكتشاف تلك الصور، عملت "ميتا" مع شركات رائدة أخرى على تطوير أدوات تسمح لأنظمتها بالتعرف على الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي.

وسيتم طرح ملصقات "ميتا" على الصور عبر "فيسبوك" و"إنستغرام" و"ثريد" بلغات متعددة. أما إذا كانت الصورة أو الفيديو أو الصوت الذي تم إنشاؤه أو تعديله رقميًا يشكل خطرًا كبيرًا لخداع الجمهور بشأن "مسألة ذات أهمية"، فقد تضيف "ميتا" علامة أكثر بروزًا.

عقوبات المخالفين

شدد العديد من الخبراء على أهمية قيام المستخدمين بوضع علامات واضحة على الصور ومقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي.

وتقول "ميتا" إنها ستطلق ميزة تتيح للمستخدمين تحديد متى تم إنشاء محتوى الفيديو أو الصوت الذي يشاركونه بواسطة الذكاء الاصطناعي، أو تم إنشاؤه أو تعديله رقميًا، وقد يواجهون عقوبات إذا لم يفعلوا ذلك.

والأمر نفسه سيحصل إذا قام المستخدم بإزالة العلامات المائية غير المرئية من الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي.

التعرف على التزييف

سيبحث الأشخاص والمنظمات، الراغبون فعليًا في خداع الأشخاص بمحتوى تم إنشاؤه بواسطة الذكاء الاصطناعي، عن طرق الالتفاف على أدوات كشف التزييف.

لذلك من المهم أن يأخذ هؤلاء بعين الاعتبار عدة أشياء عند تحديد ما إذا كان المحتوى قد تم إنشاؤه بواسطة الذكاء الاصطناعي أم لا، مثل التحقق مما إذا كان الحساب الذي يشارك المحتوى جديرًا بالثقة أو البحث عن التفاصيل التي قد تبدو غير طبيعية.

الأكثر قراءة

No stories found.


logo
إرم نيوز
www.eremnews.com