إعلام

هل يؤثر الذكاء الاصطناعي على مصداقية الأخبار؟

في عالم أصبحت مصادر الأخبار فيه متعددة، بات من الصعب التأكد من مصداقية هذه الأخبار في ظل السيل الكبير الذي يأتي من كل حدب وصوب، وبالرغم من أن البشر لجأوا للذكاء الاصطناعي لحل عدد لا بأس به من المشاكل، إلا أنه كان المتهم في هذه المشكلة.

في تحليل لبلومبرغ، بدأت مواقع الإنترنت والتواصل الاجتماعي تشهد انتشار لعدد من المواقع التي تنشر الأخبار بصيغة أخبار عاجلة، تتناول عدد من القضايا السياسية والاجتماعية والاقتصادية، هذه المواقع بدأت بجذب عدد من المتابعين، الذين تفاعلوا مع هذه الأخبار، لكنهم لا يعلمون أن كل هذه الأخبار التي نشرتها هذه المواقع، تم إنشاؤها كلها من أدوات الذكاء الاصطناعي المشهورة مثل “ChatGPT” من شركة OpenAI، وأداة شركة Alphabet الحديثة “Bard”.

الشركة المتخصصة في تقييم الأخبار “NewsGuard” تتبعت هذه المواقع، لتكشف وجود 49 موقعا مختلفا تعمل جميعها على نشر أخبار تم كتابتها بالكامل عبر الذكاء الاصطناعي، بعضها مبني على أخبار حقيقية تم نشرها على صحف ومجلات، وبعضها الآخر تم فبركته بناء على محتوى مجهول أو فيديوهات يوتيوب مضللة.

وبالمتابعة الحثيثة لهذه المواقع، وجدت شركة “NewsGuard” خبرا على أحد المواقع يتحدث عن وفاة الرئيس الأميركي جو بايدن، وأن نائبته كاميلا هاريس هي من تقود البلاد، كما رصدت موقعا آخر يتحدث عن مقتل آلاف الجنود في حرب أوكرانيا، نقلا عن مقطع فيديو غير مؤكد تم نشره على موقع يوتيوب.

البحث أظهر أن أغلب هذه المواقع عبارة عن ما يسمى بـ “مزارع محتوى” وهي عبارة عن مواقع إنترنت منخفضة الجودة تديرها مصادر مجهولة تقوم بنشر منشورات لجلب الإعلانات، وتنتشر في جميع أنحاء العالم ويتم نشرها بعدة لغات، بما في ذلك الإنجليزية والبرتغالية والتاغالوغية والتايلاندية.

وبمتابعة هذه المواقع، تمكن بعضها من تحقيق عائدات عبر إعلانات من خلال نشر محتوى من مواقع أخرى، لكن بعضهم الآخر حاول بناء جمهور على وسائل التواصل الاجتماعي، مثل موقع لنشر السير الذاتية للمشاهير والذي يتابع صفحته على فيسبوك حوالي 124 ألف متابع، ومن خلال ارتفاع المتابعين، يمكن لهم تحقيق عائدات عبر الإعلانات.

المشكلة الحقيقية هنا تكمن في العدد الكبير من هذه الأخبار التي يصعب على الناس العاديين تمييز ما إذا كانت حقيقية أم مزيفة، وباعتبار أننا فقط في بداية عصر خدمات الذكاء الاصطناعي التي تقدم خدمات نصوص مكتوبة، فإن الأمر مرشح للتفاقم بشدة إذا لم يتم التحكم في هذه الخدمات.

الرئيس التنفيذي لشركة “NewsGuard” قال إن التقرير يظهر أهمية أن تقوم الشركات التي تطلق خدمات الذكاء الاصطناعي بتدريب ربوتاتها لعدم المساهمة في كتابة أخبار مفبركة، وأن لا يتم استخدامها في أمور سلبية كهذه.

تحركات لاحتواء المشكلة

قائمة المخاطر التي ظهرت منذ ظهور روبوتات الذكاء الاصطناعي لا تلبث أن تكبر يوما بعد يوم، وهي لا تشير إلا لأمر واحد، وهو وجوب وضع تنظيمات حكومية ورسمية تحكم العمل في هذا القطاع الذي شهد تطورا سريعا وهائلا في وقت قصير، وهو أمر حذر منه عدد لا بأس به من الخبراء على رأسهم إيلون ماسك، الذي التقى به زعيم الأغلبية الديمقراطية في مجلس الشيوخ الأميركي تشاك شومر ومشرعين آخرين الأسبوع الماضي، لمناقشة إجراءات تنظيم الذكاء الاصطناعي.

وكان ماسك من بين أشد المنتقدين للوتيرة السريعة الحالية لتطوير الذكاء الاصطناعي، ووقع خطابا مفتوحا في مارس الماضي مع معهد “Future of Life” يدعو فيه مختبرات الذكاء الاصطناعي إلى إيقاف مؤقت لمدة 6 أشهر بشأن تدريب أنظمة الذكاء الاصطناعي الأكثر قوة من برنامج “GPT-4″، في إشارة إلى أحدث نسخة من برنامج “ChatGPT”.

الأسباب والأبعاد

مخاوف المستقبل في قطاع الذكاء الاصطناعي دفعتنا في موقع اقتصاد سكاي نيوز عربية لمناقشة الأمر مع خبير الذكاء الاصطناعي والبرمجة الروبوتية إسلام شطناوي، الذي قال إن الذكاء الاصطناعي يعتبر خوارزمية أو نموذج رقمي يستطيع التعلم من الخبرة، وهذه الخبرات تأتي من كل أشكال البيانات سواء نصية أو صور أو مرئية كالفيديو.

وبالتالي يستطيع خلق أنماط يتعلم منها، فإذا تم تعليمه خبرات في أمور غير قانونية أو خاطئة، فللأسف سوف يوجد طريقة لتعلم وتوليد معرفة في هذه الأمور غير القانونية أو الخاطئة، فبالتأكيد موضوع الأخبار المفبركة وتوجيه الرأي العام عبرها تعتبر من الجوانب السلبية للذكاء الاصطناعي، بنفس الطريقة التي يقوم بها شخص ما باستخدام خبراته للقيام بأمور غير قانونية أو خاطئة، وهو فعليا أمر يثير القلق لدى الكثيرين خصوصا مع انتشار أمور مثل ما يسمى بـ “التزييف العميق”، وظهور حسابات وهمية على مواقع التواصل يقف خلفها آلاف من الربوتات التي تحاول إظهار أنهم أشخاص طبيعيين للقيام بتوجيه محتوى أو معلومات معينة ونشرها لعدد كبير من الناس.

كل هذه الأمثلة تظهر كيف يمكن للذكاء الاصطناعي أن يبدع في القيام بهذه الأمور الخاطئة، لكن يجب الحديث أيضا عن ما يسمى بالذكاء الاصطناعي المضاد، الذي يقوم بكشف إن كانت هذه الأخبار مفبركة وتعقبها ورسم شجرة للمصادر لكشف الذكاء الاصطناعي المضلل، والتقليل بشكل كبير من أخطاره.

المصدر: الغد

مقترحات