هوش مصنوعی؛ شمشیر دولبه/ وقتی فناوری به کمک تشخیص اخبار جعلی می‌آید

خبرگزاری علم و فناوری آنا؛ اخبار جعلی در حال حاضر بی‌اعتمادی نسبت به رسانه‌ها، سیاست‌ها و نهاد‌های مستقر در سراسر جهان را بیشتر کرده است. تکنولوژی‌های جدیدی همچون هوش مصنوعی و ابزارهای آن حتی می‌تواند این اوضاع را بیش از پیش بدتر کند، اما با همه خطراتی که ممکن است با خود به همراه داشته باشد، در عین حال می‌تواند برای مبارزه با اطلاعات غلط و نادرست هم استفاده شود. این فناوری‌ها می‌توانند عصر جدیدی را در شناسایی اخبار جعلی و اطلاعات نادرست آغاز کنند.

در این راستا و با توجه به نیازی که در این زمینه حس می‌شود، بسیاری از محققان و کارشناسان در حال ساخت ابزار‌های نرم‌افزاری برای کمک به تشخیص و مبارزه با اخبار جعلی و نادرست هستند.

امروزه، تصاویر و ویدئوها را با فتوشاپ ساده و یا تکنیک‌های پیچیده‌تری مانند جعل و هک کردن می‌توان به‌راحتی دستکاری کرد. از این رو باید از سیستم‌هایی بهره گرفت که بتوانند این تغییرات را مهندسی معکوس کنند و از الگوریتم‌هایی برای کمک به تشخیص محتوای دستکاری شده استفاده کنند.

وقتی این ابزار‌ها به فرم محتوا نگاه می‌کنند، بررسی نمی‌کنند که آیا خود محتوا ادعا‌های نادرستی مطرح می‌کند یا خیر. آن‌ها داستان‌هایی را لینک می‌کنند که توسط حقیقت‌یاب‌های انسانی نادرست بودن آن‌ها ثابت شده است و به دنبال صفحات آنلاین یا پست‌های رسانه‌های اجتماعی با کلمات و ادعا‌های مشابه می‌گردند.

به گفته «فرانچسکو نوچی»، مدیر تحقیقات اپلیکیشن «فاندانگو» (Fandango) در ایتالیا «هوش مصنوعی مشکلات بسیاری را با خود به همراه دارد؛ اما گاهی اوقات می‌تواند راه حل هم باشد. شما می‌توانید از هوش مصنوعی به روش‌های غیر اخلاقی برای مثال ساخت و پخش اخبار جعلی استفاده کنید، اما می‌توانید از آن برای مبارزه با اطلاعات غلط نیز استفاده کنید.»

موانع زبانی؛ چالش هوش مصنوعی برای تشخیص اخبار جعلی

«مایکل برونشتاین»، استاد دانشگاه لوگانو در سوئیس و کالج سلطنتی لندن در بریتانیا معتقد است که «با این حال تشخیص اخبار جعلی نه‌تنها ممکن است مسئله پیدا کردن ادعا‌های نادرست باشد، بلکه می‌تواند تجزیه و تحلیل مقادیر زیادی از الگو‌های اشتراک‌گذاری رسانه‌های اجتماعی باشد.»

وی رهبری پروژه‌ای به نام «گود نیوز» (GoodNews) را برعهده دارد که از هوش مصنوعی برای اتخاذ رویکردی غیرمعمول برای تشخیص اخبار جعلی استفاده می‌کند. برونشتاین در این باره می‌گوید: «بیشتر رویکرد‌های موجود به محتوا نگاه می‌کنند و ویژگی‌های معنایی را که مشخصه اخبار جعلی هستند، تحلیل می‌کنند؛ که تا حدی جواب می‌دهد، اما مشکلات دیگری را هم به دنبال دارد. برای مثال، موانع زبانی وجود دارد، پلتفرم‌هایی مانند واتساپ به شما اجازه دسترسی به محتوا را نمی‌دهند، زیرا رمزگذاری شده و در بسیاری از موارد اخبار جعلی ممکن است یک تصویر باشد که تحلیل آن با استفاده از تکنیک‌هایی مانند پردازش زبان طبیعی سخت‌تر است.»

به گفته وی «مطالعات گذشته نشان می‌دهد که داستان‌های جعلی به روش‌ متفاوتی نسبت به داستان‌های واقعی به اشتراک گذاشته می‌شوند. “گود نیوز” با تشخیص الگو‌های این چنینی، امتیاز اعتبار را به یک آیتم خبری اختصاص می‌دهد.»

 

این گروه تحقیقاتی اولین نمونه خود را ساخته‌ است که از یادگیری ماشینی مبتنی بر گراف استفاده می‌کند. این نمونه اولیه براساس داده‌های توییتر آموزش داده می‌شود که در آن محققان داستان‌هایی را ردیابی می‌کنند که توسط روزنامه‌نگاران و خبرنگاران بررسی شده و جعلی بودن آن تأیید می‌شود. آن‌ها به این ترتیب الگوریتم هوش مصنوعی را با نشان دادن اینکه کدام داستان‌ها جعلی هستند و کدام درست هستند، آموزش می‌دهند.

آن‌ها امیدوار هستند این محصول را تا پایان سال عرضه کنند. آن‌ها داشتن مشتریانی از شرکت‌های بزرگ رسانه‌ای همانند فیسبوک، توییتر و همچنین کاربران شخصی را پیش‌بینی می‌کنند. به گفته برونشتاین «چشم‌انداز بزرگ‌تر این است که ما می‌خواهیم به یک موسسه رتبه‌بندی اعتبار برای اخبار تبدیل شویم، به همان شیوه‌ای که برخی شرکت‌ها امتیاز اعتبار مصرف‌کنندگان خود را رتبه‌بندی می‌کنند.»

ساده‌لوحانه است که انتظار داشته باشیم فناوری مشکل اخبار جعلی را حل کند!

نوچی تاکید می‌کند که مفهوم اخبار جعلی مورد بحث است و داستان‌ها اغلب کاملا درست نیستند، اما به طور قطعی هم غلط نیستند. اخبار جعلی یک پرسش ریاضی از الگوریتم‌ها و داده‌ها نیست، بلکه یک پرسش بسیار فلسفی از نحوه برخورد ما با حقیقت است. با این وجود فناوری می‌تواند به بهبود شفافیت در مورد ادعا‌های جعلی و اطلاعات غلط کمک کند.

اما پروفسور برونشتاین اعتقاد دیگری دارد. وی در این باره می‌گوید: «ساده‌لوحانه است که انتظار داشته باشیم فناوری مشکل اخبار جعلی را حل کند. موضوع فقط تشخیص اخبار جعلی نیست. مشکل اعتماد و فقدان تفکر انتقادی است. مردم اعتماد خود را به رسانه‌ها و مؤسسات سنتی از دست می‌دهند و این چیزی نیست که تنها از طریق فناوری بتوان آن را کاهش داد. این کار نیاز به تلاش همه ذی‌‌نفعان دارد.»

از طرفی؛ محققان دانشگاه زوریخ در تلاش هستند تا با استفاده از هوش ماشینی و یادگیری عمیق، سوگیری در پوشش خبری را شناسایی کنند. این پروژه بخشی از ابتکار جامعه دیجیتال جدید دانشگاه است، شبکه‌ای میان رشته‌ای از دانشگاهیان و دانشمندان که در حال مطالعه چگونگی تاثیر دیجیتالی شدن جامعه بر ارتباطات، سلامت، کار، جامعه و دموکراسی هستند.

در زوریخ، پروژه اخبار جعلی توسط «کارستن دونا» استادیار رفتار سیاسی و رسانه‌های دیجیتال رهبری می‌شود. تلاش تیم این استادیار برای شناسایی و افشای اخبار مغرضانه، یکی از اولین تلاش‌های جدی برای استفاده از هوش مصنوعی برای مبارزه با انتشار اطلاعات غلط و گمراه کننده در اینترنت است.

به گفته دونا «طبقه‌بندی اخبار اهمیت دارد. به‌ویژه مهم است که مردم بتوانند اطلاعات مغرضانه، نادرست و اغلب احساسی منتشر شده تحت پوشش گزارش خبری را شناسایی کنند. برای مثال دو جمله (بازرسان تسلیحاتی سازمان ملل اعلام کردند که دو هواپیمای شناسایی «یو-۲» (U-۲) را به دلایل امنیتی از عراق خارج کرده‌اند.) و (جنگنده‌های عراقی دو هواپیمای تجسسی آمریکایی یو-۲ را تهدید کردند و آن‌ها را مجبور به لغو ماموریت و بازگشت کردند.) در جمله اول، کلمات حذف‌شده شناسایی و ایمنی خنثی هستند. با این حال، در جمله دوم، کلمات تهدید، نظارت و اجبار لحن تهدیدآمیزتری دارند. هر دو ممکن است از نظر فنی درست باشند، اما معانی کلمات می‌تواند برداشت‌های متفاوتی به دنبال داشته باشد، بنابراین چارچوب‌بندی آن‌ها هم مختلف است.»

دونا معتقد است که «هدف نهایی این پروژه ایجاد یک وب‌سایت جمع‌آوری اخبار است که از یک ابزار هوش مصنوعی برای شناسایی سوگیری و فریب در اخبار روزانه استفاده می‌کند، سپس داستان‌ها به شیوه‌ای خنثی دسته‌بندی و ارائه شوند تا خوانندگان بتوانند به‌راحتی آن‌ها را درک کنند و به آن‌ها اعتماد کنند. با این حال؛ این پروژه هنوز در مراحل اولیه خود به سر می‌برد و مشکلات آن بسیار زیاد است. ابزار هوش مصنوعی باید یاد بگیرد که چگونه سوگیری را تشخیص دهد، به این معنی که باید بتواند تفاوت‌ها را در زبان و زمینه‌ای تجزیه کند که حتی خوانندگان انسانی دقیق نیز در تشخیص آن مشکل دارند.»

هوش مصنوعی می‌تواند به پایان دادن اخبار جعلی کمک کند؟

لزوم ایجاد یک مجموعه داده بزرگ از مثال‌های زبانی برای ابزارهای هوش مصنوعی

در هر حال؛ برنامه‌نویسی یک کامپیوتر برای شناسایی تعصب انسانی در نوشتن به معنای آموزش نحوه خواندن آن است. اما خود خواندن یک فرآیند ذهنی پیچیده است که دانشمندان به طور کامل آن را درک نمی‌کنند و هوش مصنوعی تنها به اندازه برنامه‌نویسی و داده‌هایی که از آن پشتیبانی می‌کند، هوشمند است.

با این وجود؛ تیم دونا در تلاش است تا با تقلید از فرایند‌های ناخودآگاهی که انسان‌ها برای ارزیابی صحت اطلاعاتی که جذب می‌کنند، به هوش مصنوعی خود آموزش دهد تا سوگیری را تشخیص دهد. البته انسان‌ها هم گاهی در تشخیص سوگیری خیلی خوب نیستند و از هوش مصنوعی نمی‌توان انتظار بالاتری داشت. به هر حال حقیقت دست کم تا حدی به چشم می‌آید.

دشواری در حل مشکل اخبار جعلی با این درک آغاز می‌شود که فرآیند جمع‌آوری، گزارش، نوشتن، ویرایش و انتشار اخبار، خود ناقص است. برای مثال، سازمان‌های خبری، تبلیغ‌کنندگان و مخاطبان جامعه هدفی دارند و این عوامل در انتخاب و ارائه داستان‌های آن‌ها تاثیر می‌گذارند. همچنین، هر جمله‌ای که یک نویسنده تولید می‌کند، مجموعه‌ای از قضاوت‌ها درباره آن به راه می‌افتد و هر برداشتی از آن، بازتابی از آموزش، تجربه، فرهنگ و … آن جامعه دارد. همچنین دیدگاه خواننده هم باید در نظر گرفته شود.

به گفته دونا «یکی از اولین چالش‌هایی که با آن مواجه هستند، ایجاد یک مجموعه داده به اندازه کافی بزرگ از مثال‌های زبانی برای یک ابزار هوش مصنوعی است تا به‌عنوان چارچوبی برای تحلیل مورد استفاده قرار گیرد. تلاش‌های گذشته برای ایجاد فرهنگ لغت کلمات و عبارات به‌خوبی جواب نداده است. در عوض برای توسعه یک رویکرد یادگیری عمیق و کامل‌تر در تلاش هستیم که به داده‌های حاشیه‌نویسی شده زیادی نیاز دارد.»

در یک پروژه آزمایشی نیاز است در ابتدا بر روی تجزیه و تحلیل احساسات تمرکز کرد تا نشان دهد که چگونه می‌توان از این رویکرد برای سنجش میزان چارچوب‌بندی ایده‌ها در یک داستان خبری به عنوان مثبت یا منفی استفاده کرد. چالش بزرگ بعدی می‌تواند گسترش منطق تجزیه و تحلیل احساسات برای ساخت یک پایگاه داده حاشیه‌نویسی شده برای به کارگیری تکنیک‌های مدل سازی باشد که چگونگی درک معانی و نیت کلمات پیچیده‌تر توسط مغز انسان را تقلید می‌کند.

برای این مهم شاید لازم باشد یک گروه تحقیقاتی متشکل از صد‌ها کدکننده باید هزاران جمله را تجزیه‌وتحلیل و امتیازدهی کنند تا مجموعه داده‌های معیار جدیدی برای تشخیص سوگیری رسانه‌ای ایجاد شود. زمانی که ابزار هوش مصنوعی مثال‌های کافی برای شناسایی مسائل سوگیری در سطح انتخاب کلمه و ساختار جمله را یاد بگیرد، می‌تواند تحلیل خود را به متن بزرگ‌تر، پاراگراف‌ها و کل داستان‌ها گسترش دهد. با این اوصاف؛ به منظور تجزیه و تحلیل یک داستان خبری برای سوگیری و مقایسه آن با داستان‌های دیگر در مورد یک موضوع، ابزار هوش مصنوعی باید بتواند تشخیص دهد که موضوعات اصلی و مفاهیم مورد بحث در چندین داستان به هم مرتبط هستند.

به اعتقاد دونا «ما درک می‌کنیم که این کار باید به صورت گام به گام انجام شود و گام بعدی افزایش قابلیت‌های ابزار هوش مصنوعی برای شناسایی اطلاعات غلط و گمراه‌کننده یا اخبار جعلی است. تعیین صحت اخبار بسیار دشوار خواهد بود. چارچوب‌بندی اخبار، خود یک سوگیری ذاتی ایجاد می‌کند.»

هوش مصنوعی می‌تواند به پایان دادن اخبار جعلی کمک کند؟

تبدیل تهدیدهای هوش مصنوعی به فرصت‌های طلایی

با این وجود؛ امیدوار هستیم با سرعت و شتابی که هوش مصنوعی در توسعه تکنولوژی‌های روز دنیا دارد تا سال آینده وب‌سایتی برای تشخیص اخبار جعلی و نادرست ایجاد شود. برای شروع، مجموعه داده‌های مورد نیاز برای مدل‌سازی باید به طور قابل توجهی افزایش داده شوند، همچنین یک نمونه گسترده از اخبار در سراسر حوزه‌ها و منابع کدگذاری شده و کیفیت کدگذاری که توسط انسان‌ها انجام می‌شود، باید به طور مداوم بالا بماند.

البته هیچ تضمینی وجود ندارد که مردم به قضاوت‌های هوش مصنوعی اعتماد کنند. اما همه کشورهای پیشرفته دنیا با توجه به اهمیت هوش مصنوعی و ابزارهای آن، با دانستن همه خطراتی که می‌تواند به دنبال داشته باشد به این سمت در حرکت هستند و با برنامه‌ریزی و قانون گذاری‌ها اقدامات پیشگیرانه‌ای را لحاظ می‌کنند. برای عقب نماندن از این مسیر باید همرنگ جماعت شد و هر تهدیدی را با فراهم کردن تمهیدات لازم به فرصت‌هایی طلایی تبدیل کرد و از آن برای مسیر تحول و توسعه بیشتر کشور سود برد.

دکمه بازگشت به بالا