جدل داخل "فيسبوك" حول آلية عمل الذكاء الاصطناعي في حذف منشورات "الكراهية"
جدل داخل "فيسبوك" حول آلية عمل الذكاء الاصطناعي في حذف منشورات "الكراهية"جدل داخل "فيسبوك" حول آلية عمل الذكاء الاصطناعي في حذف منشورات "الكراهية"

جدل داخل "فيسبوك" حول آلية عمل الذكاء الاصطناعي في حذف منشورات "الكراهية"

لطالما قال المسؤولون التنفيذيون في "فيسبوك"، إن الذكاء الاصطناعي الذي تستخدمه الشركة سيعالج المشاكل المزمنة لها في إبقاء ما تعتبره كلامًا "يحض على الكراهية والعنف المفرط"، بالإضافة إلى المستخدمين القصر، بعيدًا عن منصاتها.

وقالت صحيفة "وول ستريت جورنال" الأمريكية، إن "هذا المستقبل هو أبعد مما يقترحه هؤلاء التنفيذيون، ولا يمكن للذكاء الاصطناعي في فيسبوك التعرف على كل شيء"، وذلك وفقًا لوثائق داخلية راجعتها الصحيفة.

وأضافت: "فيما يتعلق بخطاب الكراهية، تظهر الوثائق أن موظفي فيسبوك قدروا أن الشركة تزيل جزءًا صغيرًا فقط من المنشورات التي تنتهك قواعدا"، أي نسبة منخفضة من خانة واحدة، كما يقولون.

وتابعت: "عندما لا تكون خوارزميات فيسبوك متأكدة بما يكفي من أن المحتوى ينتهك قواعد حذفه، فإن النظام الأساس يعرض هذه المواد للمستخدمين في كثير من الأحيان، ولكن الحسابات التي نشرت المواد تمر دون عقاب."



 

وتظهر الوثائق التي استعرضتها الصحيفة أيضًا، أن "فيسبوك" كان قد قلص قبل عامين الوقت الذي ركز فيه المراجعون البشريون على شكاوى خطاب الكراهية من المستخدمين، وأجروا تعديلات أخرى قللت من العدد الإجمالي للشكاوى، وجعل ذلك الشركة أكثر اعتمادًا على تطبيق الذكاء الاصطناعي لقواعدها، وأدى إلى تضخيم النجاح الواضح للتكنولوجيا في إحصاءاتها العامة.

ووفقًا للوثائق، يقر المسؤولون المعنيون بالحفاظ على المنصة من المحتوى الذي تعتبره فيسبوك "مسيئًا أو خطيرًا"، أن الشركة "ليست قريبة من كونها قادرة على فحص الشكاوى بشكل موثوق".

 

نسبة ضئيلة

من جانبه، كتب مهندس كبير وعالم أبحاث مذكرة، منتصف عام 2019، قال فيها: "المشكلة هي أننا لا نملك وربما لن يكون لدينا أبدًا نموذج يلتقط حتى غالبية أضرار النزاهة، لا سيما في المناطق الحساسة".

وقدر المهندس، أن الأنظمة الآلية للشركة أزالت المنشورات التي ولدت 2٪ فقط من آراء خطاب الكراهية على المنصة التي تنتهك قواعدها.

وأضاف: "تشير التقديرات الأخيرة إلى أنه ما لم يكن هناك تغيير كبير في الإستراتيجية، فسيكون من الصعب للغاية تحسين ذلك بما يتجاوز 10-20٪ على المدى القصير والمتوسط".

وفي آذار/مارس الماضي، توصل فريق آخر من موظفي "فسيبوك" إلى نتيجة مماثلة، وقدر أن تلك الأنظمة كانت تزيل المنشورات التي ولدت 3- 5٪ من مشاهدات خطاب الكراهية على المنصة، و 0,6٪ من كل المحتوى الذي ينتهك سياسات الشركة ضد العنف والتحريض.

وقال المتحدث باسم"فيسبوك"، آندي ستون، إن هذه النسب المئوية تشير إلى المنشورات التي تمت إزالتها باستخدام الذكاء الاصطناعي، ولم تتضمن إجراءات أخرى تتخذها الشركة لتقليل عدد الأشخاص الذين يشاهدون خطاب الكراهية، بما في ذلك تصنيف المنشورات الأقل في موجز الأخبار.

وتزعم "فيسبوك" أنه بهذا المقياس، فإن انتشار المحتوى الذي ينتهك سياساته آخذ في التقلص، وهذا ما تعتبره الشركة أهم مقياس إنفاذ لها.



 

ووفق "وول ستريت جورنال"، تتناقض الإحصاءات بشكل صارخ مع الثقة في الذكاء الاصطناعي التي قدمها كبار المسؤولين التنفيذيين في"فيسبوك"، بما في ذلك الرئيس التنفيذي للشركة، مارك زوكربيرغ، الذي قال سابقًا إنه يتوقع أن تستخدم شركته الذكاء الاصطناعي للكشف عن "الغالبية العظمى من المحتوى الإشكالي"، بحلول نهاية العام 2019.

ولطالما شككت مجموعات الحقوق المدنية والأكاديميون بأن معدل اكتشاف الذكاء الاصطناعي يظهر تقدمًا ذا مغزى، قائلين إنه لا يبدو أنه يتطابق مع تجارب المستخدم أو دراساتهم الخاصة.

 

فيسبوك: خطاب الكراهية تقلص

بدوره، قال جاي روزن، رئيس قسم النزاهة في "فيسبوك"، "إن انتشار خطاب الكراهية على المنصة قد انخفض بنسبة 50% على مدار الأعوام الثلاثة الماضية، وإن الروايات التي تتهمنا بأن التكنولوجيا التي نستخدمها لمحاربة خطاب الكراهية غير كافية ونتعمد استخدامها، لا أساس لها من الصحة".

وأضاف روزن في مقابلة: "الانتشار هو المقياس الأكثر أهمية، وهو لا يمثل ما اكتشفناه، ولكن ما فاتنا، وما شاهده الناس، وهو المقياس الأساس الذي نحمّل أنفسنا المسؤولية تجاهه.. لقد نجحنا في تقليصه، وهو الذي نركز عليه حقًا."

وأوضح روزن أيضًا، أن الوثائق التي استعرضتها صحيفة "وول ستريت جورنال" قديمة، لكنها دفعت الشركة إلى العمل أكثر بشأن الإشراف على المحتوى المدفوع بالذكاء الاصطناعي.

الأكثر قراءة

No stories found.
logo
إرم نيوز
www.eremnews.com