مع الانتشار المتسارع لتقنيات الذكاء الاصطناعي في إنتاج المحتوى العلمي والإخباري على الإنترنت، أصبحت مسألة الشفافية في الإشارة إلى المحتوى المنشأ آلياً محور نقاش واسع على الصعيدين التنظيمي والإعلامي.
واعتمدت العديد من الحكومات والمنصات الرقمية سياسات تُلزم بوضع علامات توضيحية على المنشورات المولّدة بالذكاء الاصطناعي، بهدف حماية الجمهور من التضليل.
إلا أن دراسة جديدة نُشرت في مجلة JCOM المتخصصة في التواصل العلمي، تشير إلى أن هذه الإجراءات قد تفضي إلى نتائج عكسية، إذ يمكن أن تقلل من ثقة الجمهور بالمعلومات العلمية الصحيحة، بينما تعزز في الوقت ذاته مصداقية المعلومات الخاطئة.
وتأتي هذه النتائج في ظل اعتماد متزايد على النماذج اللغوية المتقدمة في كتابة النصوص العلمية أو تبسيطها للجمهور العام. فرغم الفوائد الكبيرة لهذه التقنيات، إلا أنها تحمل مخاطر محتملة، إذ قد تنتج أحياناً معلومات غير دقيقة تبدو مقنعة للغاية، فيما يُعرف بـ”هلوسة الذكاء الاصطناعي“، كما يمكن استغلالها عمداً لتوليد محتوى مضلل بأسلوب علمي يصعب على القارئ العادي كشف زيفه.
وفي محاولة لفهم تأثير علامات الإفصاح عن المحتوى المولّد بالذكاء الاصطناعي، أجرى الباحثان تينج لين، ويي تشينج تشانج، من كلية الصحافة والاتصال في جامعة الأكاديمية الصينية للعلوم الاجتماعية دراسة تجريبية لاختبار مدى فاعلية هذه العلامات في الحد من انتشار المعلومات المضللة.
كما أظهرت الدراسة أن المواقف الشخصية تجاه الذكاء الاصطناعي تلعب دوراً محورياً في تفسير النتائج. فالأفراد الذين ينظرون إلى الذكاء الاصطناعي بعين الشك كانوا أكثر ميلاً لتقليل تقييمهم للمعلومات الصحيحة عند معرفة أنها مولّدة آلياً، بينما لم يختف التأثير الإيجابي للعلامة على مصداقية المعلومات المضللة تماماً، بل انخفض جزئياً فقط.
وأوضحت النتائج أن ما يُعرف بـ”النفور من الخوارزميات” لا يؤدي إلى رفض شامل للمحتوى المولّد بالذكاء الاصطناعي، بل يخلق ردود فعل متباينة حسب طبيعة المعلومات وسياقها.