Hemaiah Center Participates in Trust Conference in London on October 22-23 , The center was represented by Marwah Saeed Yafei.   

 This is an annual event hosted by the Thomson Reuters Foundation (TRF) that convenes journalists, activists, and other experts to explore challenges to global democracy. The first day focuses on threats to independent journalism.

Context is a media platform from the Thomson Reuters Foundation and the official media partner for Trust Conference. Our award-winning team of reporters around the world provide news and analysis that contextualizes how critical issues and events affect ordinary people, society and the environment. With a focus on three of the most significant and interdependent issues of our time – climate change, the impact of technology on society and inclusive economies – Context will take a deeper look at some of the topics that will be explored at Trust Conference and offer exclusive interviews and opinions from our speakers. Our reporters will be on the ground at the event, participating as speakers and providing live coverage. 

مركز حماية يشارك في مؤتمر الثقة في لندن

شارك مركز حماية في مؤتمر الثقة في لندن يومي 22 و23 أكتوبر/تشرين الأول  ومثل المركز مروى سعيد يافعي

 ويعتبر هذا المؤتمر حدث سنوي تستضيفه مؤسسة تومسون رويترز (TRF) ويجمع الصحفيين والناشطين وغيرهم من الخبراء لاستكشاف التحديات التي تواجه الديمقراطية العالمية. ركز اليوم الأول على التهديدات التي تواجه الصحافة المستقلة. تعد Context منصة إعلامية تابعة لمؤسسة تومسون رويترز والشريك الإعلامي الرسمي لمؤتمر Trust. يقدم فريق ترست الحائز على جوائز من المراسلين في جميع أنحاء العالم الأخبار والتحليلات التي تضع السياق المناسب لكيفية تأثير القضايا والأحداث الحرجة على الأشخاص العاديين والمجتمع والبيئة. مع التركيز على ثلاث من أهم القضايا المترابطة في عصرنا – تغير المناخ وتأثير التكنولوجيا على المجتمع والاقتصادات الشاملة – تلقي Context نظرة أعمق على بعض الموضوعات التي سيتم استكشافها في مؤتمر Trust وتقدم مقابلات وآراء حصرية من المتحدثين. سيكون مراسلوهم على أرض الحدث، ويشاركون كمتحدثين ويوفرون تغطية مباشرة.

ملخص لأهم ما تم نقاشه في المؤتمر:

عام الانتخابات العليا: مكافحة التضليل للدفاع عن الديمقراطية

الذكاء الاصطناعي والانتخابات الهندية مع التضليل: روتي كابور

● لم يلعب الذكاء الاصطناعي دورًا رئيسيًا في نشر التضليل خلال الانتخابات الهندية؛ كان

المذنبون الحقيقيون هم السياسيون.

● تسيطر التكتلات على وسائل الإعلام التقليدية الرئيسية في الهند وتنشر التضليل

والكراهية.

● التحدي الرئيسي هو انتشار المعلومات غير الخاضعة للرقابة عبر تطبيقات مثل WhatsApp،

التي تفتقر إلى ميزات التحقق من الحقائق المشابهة لتلك الموجودة على منصات مثل Twitter.

كلير ليبوفيتش وجيف ألين حول الانتخابات الأمريكية

● أصبحت فرق النزاهة في شركات التكنولوجيا أقل أهمية مقارنة بعام 2020.

● ضعف التركيز على مكافحة التضليل بسبب انخفاض التعاون

بين الحكومات ومنصات التواصل الاجتماعي.

● يستخدم الشخصيات العامة الذكاء الاصطناعي كوسيلة إنكار معقولة، ويزعمون زوراً أن مقاطع الفيديو الحقيقية يتم إنشاؤها بواسطة الذكاء الاصطناعي.

● تعمل الذكاء الاصطناعي على تسهيل إنشاء ونشر المعلومات المضللة، مثل الترويج المزيف للمشاهير.

التأثير العالمي للذكاء الاصطناعي على الانتخابات: جيف ألين

● لقد سهّل الذكاء الاصطناعي بشكل أساسي إنشاء المعلومات المضللة، بدلاً من توليد أنواع جديدة من

التضليل.

● مثال: في ليتوانيا، أظهرت المعلومات المضللة التي تم إنشاؤها بواسطة الذكاء الاصطناعي الضرر المحتمل الذي يمكن أن يسببه

الذكاء الاصطناعي.

دور وسائل التواصل الاجتماعي: كلير ليبوفيتش

● تقدم منظمة كلير إرشادات أخلاقية لشركات التكنولوجيا بشأن التعامل مع

توزيع الوسائط.

● يجب على منصات التواصل الاجتماعي أن تجعل المستخدمين على دراية بمصادر المحتوى. لا تستخدم بعض المنصات، مثل

تويتر، إشارات لتوضيح الأصول.

اللوائح الحكومية الهندية: ريتو كابور

● سنت الحكومة الهندية قوانين تسمح بإزالة المحتوى الذي يُعتبر تشهيريًا أو تضليلًا، مما يؤثر على الصحفيين.

● تم تشكيل تعاونات للتحقق من الحقائق في الهند، لكن الإجراءات الحكومية أحيانًا ما تعيق الجهود المبذولة.

المناقشة حول التحقق من صحة الحقائق باستخدام الذكاء الاصطناعي: كلير وجيف

● التركيز على ما إذا كان المحتوى من إنتاج الذكاء الاصطناعي بدلاً من التحقق من صحته أمر إشكالي. يمكن أيضًا استخدام الذكاء الاصطناعي لنشر المعلومات الواقعية.

● يعزز تصميم وسائل التواصل الاجتماعي المعلومات المضللة من أجل المشاركة، لكن الجهات التنظيمية أصبحت أكثر اطلاعًا.

خطر عدم الثقة من التحقق من صحة المعلومات باستخدام الذكاء الاصطناعي: كلير

● قد يؤدي الإفراط في تصنيف المحتوى إلى إثارة الشكوك تجاه كل المحتوى غير المصنف.

● من الأهمية بمكان توضيح معنى التصنيفات، حيث يمكن أن تنشأ تفسيرات خاطئة.

التواصل الفعال للتحقق من صحة المعلومات: ريتو وكلير

● استخدم تنسيقات جذابة وموجزة للتحقق من صحة المعلومات، على غرار المعلومات المضللة الأصلية.

● يمكن أن يساعد التحقق من صحة المعلومات القائم على المجتمع، ولكن في الهند، يتسبب في حدوث ارتباك بسبب إساءة استخدام علامات الاختيار الزرقاء.

الاختلافات بين الأجيال في استجابة الذكاء الاصطناعي للانتخابات

● في الهند، تم استخدام الذكاء الاصطناعي في الغالب بشكل فكاهي في الانتخابات، دون تأثير خطير.

● هناك بيانات محدودة حول كيفية تفاعل الأجيال المختلفة مع دور الذكاء الاصطناعي في الانتخابات.

الاستخدام الإيجابي للذكاء الاصطناعي في الانتخابات الهندية

● تم استخدام الذكاء الاصطناعي بشكل فعال في الخطب السياسية متعددة اللغات والتواصل عبر الهاتف في

الهند.

نيورايتس: حماية بيانات الدماغ في عصر الذكاء الاصطناعي المتقدم

باري مالون وأفي آشر شابيرو

● يمكن لأجهزة تخطيط كهربية الدماغ اكتشاف الأمراض ولكنها تشكل خطرًا على الخصوصية، حيث يمكن إساءة استخدام بيانات الدماغ من قبل الشركات.

● تعمل مؤسسة نيورايتس على وضع لوائح لحماية بيانات الموجات الدماغية.

● هناك مخاوف بشأن الشركات التي تبيع بيانات الدماغ، كما هو الحال مع أجهزة تخطيط كهربية الدماغ التجارية

التي تترجم الأفكار إلى كلمات بدقة 40٪.

● التحديات الأخلاقية: الاستخدام القسري لتخطيط كهربية الدماغ من قبل السلطات، والشركات التي تمارس الضغط للحد من لوائح “بيانات الدماغ”.

حماية المعلومات: الوصول إلى الحقائق في عالم مدفوع بالذكاء الاصطناعي

الذكاء الاصطناعي والانتخابات: برامج الدردشة والمعلومات المضللة

● تُظهر الأبحاث أن برامج الدردشة ليست المصدر الرئيسي لأخبار الانتخابات بعد، لكنها

تقدم المعلومات بشكل فعال.

● بعض برامج المحادثة الآلية لديها تحيزات أيديولوجية، تعكس سنوات من الدعاية الأجنبية، مثل

التأثير الروسي على مواضيع معينة.

● يؤدي اتجاه الذكاء الاصطناعي التوليدي (GAI) إلى تآكل الثقة، والتحرك بسرعة دون وجود لوائح مناسبة.

ضمان دقة الذكاء الاصطناعي

● تمنع أكثر من 50% من منافذ الأخبار الذكاء الاصطناعي من استخدام محتواها. إن ضمان استخدام الذكاء الاصطناعي لمصادر دقيقة أمر بالغ الأهمية.

● هناك دعوات للشفافية واللوائح لمنع المعلومات الكاذبة من

تشكيل الاستجابات التي يولدها الذكاء الاصطناعي.

المشهد المتغير للمعلومات: إنتاج الأخبار في عالم مدفوع بالذكاء الاصطناعي

كيف يتم استخدام الذكاء الاصطناعي في غرف الأخبار

● تستخدم رويترز الذكاء الاصطناعي لتقليل المهام المتكررة للصحفيين وزيادة

وصول الجمهور.

● تستخدم التقارير الاستقصائية في روسيا الذكاء الاصطناعي لتحليل ضحايا الحرب وترجمة المحتوى، مما يقلل التكاليف.

● تكشف بعض منافذ الإعلام عن استخدامها للذكاء الاصطناعي؛ بينما تتجنبها منافذ أخرى بسبب العمل الاستقصائي الحساس.

التنظيم وتكاليف الذكاء الاصطناعي

● يجب أولاً تطبيق قوانين الملكية الفكرية وحقوق النشر الحالية قبل تقديم لوائح الذكاء الاصطناعي المحددة.

● تواجه منافذ الأخبار الأصغر تحديات مالية في تبني تكنولوجيا الذكاء الاصطناعي.

تحت الحصار: تكلفة الدفاع عن حرية الصحافة

الهجمات على المحامين المدافعين عن الصحفيين

● تستهدف الحكومات بشكل متزايد المحامين الذين يدافعون عن الصحفيين، باستخدام تكتيكات مثل

الطرد التعسفي والاعتقالات.

● تستخدم روسيا ودول أخرى قوانين مثل قانون “الوكيل الأجنبي” لقمع

الدفاع القانوني عن الصحفيين.

الدفاع عن المدافعين: دعم العدالة في مواجهة الحرب القانونية

خوسيه زامورا في قضية والده

● تستخدم الأنظمة القمعية تكتيكات قانونية لعزل المتهمين عن طريق سجن أو ترهيب محاميهم.

● الحكومات الفاسدة تلاحق بشكل متزايد المحامين المدافعين عن قضايا حقوق الإنسان، مما يخنق الوصول إلى العدالة.

المشهد الإعلامي المتغير في غزة وأوكرانيا

التحديات التي يواجهها الصحفيون في مناطق الصراع

● يواجه الصحفيون في غزة وأوكرانيا ظروفًا قاسية، بما في ذلك الرقابة والاحتجاز دون تمثيل قانوني.

من نقطة التحول إلى نقطة التحول: دعم الصحفيين في المنفى

الصحفيون في المنفى

● يواجه الصحفيون من دول مثل أفغانستان وبيلاروسيا والسلفادور قمعًا شديدًا

ولكنهم يستخدمون الشبكات الدولية لمواصلة عملهم.

● يعد التخطيط للمنفى، بما في ذلك الاستقرار المالي، أمرًا بالغ الأهمية للبقاء في الأنظمة

الاستبدادية.