آدرس پست الکترونيک [email protected]









یکشنبه، 28 شهریور ماه 1400 = 19-09 2021

با تغییر مخفیانه الگوریتم فیسبوک به فضایی خشن‌تر تبدیل شد

تغییر مخفیانه الگوریتم فیس بوک در سال ۲۰۱۸ باعث گسترش اخبار جعلی و بیشتر شدن محتوای تفرقه انگیز در این شبکه اجتماعی شد.

به گزارش مهر به نقل از دیلی میل، طبق گزارش وال استریت ژورنال، فیس بوک در سال ۲۰۱۸ میلادی الگوریتم‌های خود را طوری تغییر داد تا محتوای باز نشر شده اولویت یابد. اما این امر به گسترش بی حد و حصر اخبار جعلی، محتوای نفرت پراکنانه و خشونت آمیز در پلتفرم منجر شد.

مارک زاکربرگ مدیر ارشد اجرایی فیس بوک اعلام کرده بود این تغییر برای قدرتمندتر کردن رابطه بین افراد (به خصوص بین خانواده و دوستان) و ارتقای سلامت آنها انجام شده است.

اما اسناد نشان می‌دهد آنچه در واقع اتفاق افتاد، خلاف این امر بود و فیس بوک به فضایی خشن‌تر تبدیل شد. زیرا الگوریتم‌های هوش مصنوعی به محتوای خشن اولویت می‌دادند.

محققان این شرکت فناوری متوجه شدند ناشران اخبار و احزاب سیاسی به طور عمدی محتوای منفی یا تفرقه انگیز را منتشر می‌کنند؛ زیرا با لایک و اشتراک گذاری زیادی روبرو می‌شد و در نتیجه بین کاربران به عنوان اخبار واقعی به اشتراک گذاشته می‌شد.

طبق اسناد موجود در آوریل ۲۰۲۰ درباره این چالش به زاکربرگ هشدار داده شد اما الگوریتم‌های مذکور بدون هیچ تغییری در پلتفرم حفظ شدند.

تشویق به برخوردهای معنادار اجتماعی دلیل تغییر الگوریتم‌های فیس بوک در سال ۲۰۱۸ میلادی بود. زیرا کارشناسان حاضر در شرکت نگران کاهش کامنت و اشتراک گذاری پست‌ها توسط کاربران بودند.

این موارد برای فیس بوک اهمیت زیادی دارد، زیرا بسیاری از مدیران شرکت آن را کلیدی برای بررسی سلامت پلتفرم می‌دانند. اگر میزان کامنت و اشتراک گذاری پست‌ها کاهش یابد، ممکن است کاربران به تدریج استفاده از آن را متوقف کنند.

در سال ۲۰۱۷ میلادی میزان لایک و بازنشر پست‌ها در سراسر سال کاهش یافت، اما در آگوست ۲۰۱۸ میلادی و پس از تغییراتی در الگوریتم روند نزولی مذکور متوقف شد و دوباره فعالیت روزانه کاربران تا حد قابل توجهی ارتقا یافت.

اما مشکل آنجا بود که تحقیقی میان کاربران نشان داد بسیاری از آنها معتقدند کیفیت محتوای پلتفرم کاهش یافته است. علاوه بر آن در لهستان این تغییرات سبب شد گفتگوی سیاسی در پلتفرم مغرضانه تر شود.

این امر روی ناشران اخبار آنلاین نیز تأثیر گذاشت. جونا پرتی مدیر ارشد اجرایی بازفید در ایمیلی به مقامات فیس بوک هشدار داد بیشتر محتوای تفرقه انگیزانه ای که ناشران در این پلتفرم منتشر می‌کنند در باز فید وایرال می‌شود.

طبق یک یادداشت داخلی مربوط به آوریل ۲۰۲۰ میلادی، پس از افزایش نگرانی‌ها درباره الگوریتم، چند اقدام جایگزین پیشنهادی به زاکربرگ ارائه شد تا با گسترش اخبار جعلی و تفرقه انگیز در پلتفرم مقابله کند. یکی از این پیشنهادات حذف الگوریتم ترویج محتوای بازنشرشده توسط زنجیره‌ای طولانی از کاربران بود. اما زاکربرگ به این ایده توجهی نشان نداد.

در نهایت ماه جولای ۲۰۲۱ و ۱۸ ماه پس از آن فیس بوک اعلام کرد آزمایش‌ها برای محدود سازی این قابلیت را وسیع‌تر می‌کند.



Translate by Google: English | Français | Deutsch | Español
به اشتراک بگذارید:
  1014 بازدید |






© copyright 2004 - 2021 IranPressNews.com All Rights Reserved
Cookies on IranPressNews website
We use cookies to ensure that we give you the best experience on our website. This includes cookies from Google and third party social media websites if you visit a page which contains embedded content from social media. Such third party cookies may track your use of our website. We and our partners also use cookies to ensure we show you advertising that is relevant to you. If you continue without changing your settings, we'll assume that you are happy to receive all cookies on our website. However, you can change your cookie settings at any time.