سيريا ستار تايمز - وكالة إخبارية عالمية


فيسبوك تقدم أول تقرير عن خطاب الكراهية على منصاتها


كشفت "فيسبوك" لأول مرة عن أرقام بشأن انتشار خطاب الكراهية على منصتها قائلة إن 10 أو 11 من كل عشرة آلاف مشاهدة محتوى تضمنت خطاب كراهية. وقالت فيسبوك إن برنامج الذكاء الاصصناعي لديها يكتشف الآن 94.7% من خطاب الكراهية الذي تتم إزالته من المنصة. وكشف كبير مسؤولي التكنولوجيا في فيسبوك، مايك شروبر، عن هذا الرقم، مضيفًا أنه ارتفع بنحو 14% من 80.5% قبل عام، و70.7% من 24.7% في 2017.
مراقبة المحتوى سبق أن تعرضت وسائل التواصل الاجتماعي مثل فيسبوك وتويتر وتيك توك لانتقادات بشأن فشلها في إلغاء خطاب الكراهية، مثل الافتراءات العنصرية والاعتداءات الدينية، بعيدًا عن منصاتها. وتوظف الشركات هذه الآلاف من وسطاء المحتوى في جميع أنحاء العالم لمراقبة المنشورات والصور ومقاطع الفيديو التي تتم مشاركتها عبر منصاتها. قال أكثر من 200 مشرف على فيسبوك في رسالة مفتوحة إلى الرئيس التنفيذي مارك زوكربيرج إن "الشركة خاطرت بحياتهم من خلال إجبارهم على العودة إلى المكتب في أثناء جائحة فيروس كوفيد-19". لكن البشر وحدهم ليسوا كافين، وصار عمالقة التكنولوجيا يعتمدون على نحو متزايد على مجالات الذكاء الصناعي، أو ما يُعرف باسم التعلم الآلي، حيث تتحسن "الخوارزميات تلقائيًا من خلال التجربة". دور الذكاء الاطصناعي نشرت فيسبوك مؤخرًا تقنيتين جديدتين للذكاء الاصصناعي لمساعدته على مواجهة هذه التحديات. الأول يسمى Reinforced Integrity Optimizer، والذي يتعلم من الأمثلة والمقاييس الحقيقية عبر الإنترنت بدلًا من مجموعة البيانات غير المتصلة بالإنترنت. الثاني هو بنية الذكاء الاصصناعي المسماة Linformer، والتي تسمح باستخدام نماذج فهم اللغة المعقدة. في المجال نفسه، طور الموقع أداة جديدة لاكتشاف التزييف العميق (مقاطع فيديو تم إنشاؤها بواسطة الكمبيوتر لتبدو حقيقية)، وأدخل بعض التحسينات على نظام حالي يسمى SimSearchNet، وهي أداة مطابقة للصور مصممة لاكتشاف المعلومات الخاطئة على منصتها. يذكر أن فيسبوك أعلن في 8 أكتوبر/ تشرين الأول الماضي أن كل الإعلانات المتعلقة بالانتخابات الرئاسية الأميركية، سواء أكان موضوعها سياسيًا أم اجتماعيًا، سيتم حظرها على كل منصاته في الولايات المتحدة، فور إغلاق صناديق الاقتراع ليل 3 نوفمبر/ تشرين الثاني، وهذا الحظر ما زال مستمرًا حتى اليوم.

سيريا ستار تايمز - syriastartimes,