به گزارش پایگاه خبری حیات به نقل از فارس، در عصر شبکههای اجتماعی و وفور اطلاعات، بسیاری از ما تصور میکنیم دیگر سانسور معنی ندارد و همهٔ اطلاعات در دسترسمان است. فکر میکنیم دیگر خبری از تیغ سانسور رسمی نیست که سر محتوا را ببُرد، روزنامهها را توقیف کند یا گزارشگران را بازخواست. اما واقعیت، لایهای پنهانتر و پیچیدهتر دارد. امروز «الگوریتمها» همان نقشی را بازی میکنند که زمانی «سانسورچیها» بر عهده داشتند، اما بیصدا، با ظاهری مدرن و بیهیچ رد پایی.در این گزارش به بررسی پدیدهٔ «سانسور الگوریتمی» یا «سانسور پنهان» میپردازیم؛ فرآیندی که در آن، محتوا حذف نمیشود، اما دیده هم نمیشود. پدیدهای که شاید بیخطر به نظر برسد، اما تأثیرات اجتماعی، فرهنگی و حتی سیاسی آن عمیقتر از سانسور کلاسیک است.
سانسور پنهان در دنیای انفجار اطلاعات!
در دورهای که آزادی بیان و گردش آزادانهٔ اطلاعات ادعای کشورهای مدعی پیشرفت و تمدن است، محدودیت محتوای مرتبط با فلسطین در پلتفرمهای متا فریاد اعتراض بسیاری را بلند کرد.به طور مثال به گزارش یورونیوز، در بازهٔ اکتبر تا نوامبر ۲۰۲۳، سازمان دیدهبان حقوق بشر بیش از ۱۰۵۰ مورد حذف یا سرکوب محتوای مرتبط با فلسطین را در اینستاگرام و فیسبوک مستند کرده است. این اقدامات شامل حذف پستها، کاهش دسترسی و محدودیت در نمایش محتواهای کاربران فلسطینی و حامیان آنها بود. این سازمان اعلام کرد که این سانسورها بهصورت نظاممند و جهانی اعمال شدهاند.در جریان نسلکشی در غزه نیز الگوریتمهای شبکههای اجتماعی بهطور فعال محتوای مرتبط با فلسطین را سانسور و نشر آن را محدود کردند. این اقدامات باعث شد تا بسیاری از کاربران نتوانند اطلاعات مربوط به این موضوع را بهطور کامل دریافت کنند.«عبدالحکیم احمینه» کارشناس رسانه و ارتباطات میگوید «فعالیت گستردهٔ جوانان فلسطینی در فضای مجازی باعث شده که رژیم صهیونیستی شخصیتهای برجستهٔ شبکههای اجتماعی از جمله صاحبان کانالهای یوتیوب یا خبرنگارانی که بهطور زنده وقایع غزه را گزارش میکنند، هدف قرار دهد.»به گفتهٔ او برخی کشورها، بهویژه فرانسه و آلمان، در ابتدای جنگ نوعی محدودیت دیجیتال برای کاربران شبکهای مجازی در کشورهایشان اعمال کردند. اما در پی افزایش حمایت عمومی مردم از آرمان فلسطین وادار به عقبنشینی شدند.«حسن خرجوج» از پژوهشگران فناوری نیز در این باره میگوید «الگوریتمهای سکوهای دیجیتال بهشدت محتوای مربوط به فلسطین را سانسور کرده و نشر آن را محدود میکنند.»
این نمونهها نشان میدهند که سانسور الگوریتمی چالشی جدی در فضای دیجیتال است که میتواند بر آزادی بیان و دسترسی به اطلاعات تأثیر بگذارد.شفافسازی عملکرد الگوریتمها و پاسخگویی پلتفرمها به کاربران، گامهای مهمی در جهت مقابله با این نوع سانسور محسوب میشوند.
الگوریتم چگونه قضاوت میکند؟
در پلتفرمهایی مثل اینستاگرام، توییتر (یا ایکس)، یوتیوب، تیکتاک یا...، میلیاردها پست، توییت، ویدیو و نظر روزانه تولید میشود. این شرکتها الگوریتمهایی هوشمند برای چینش، نمایش و پیشنهاد محتوا طراحی کردهاند.این الگوریتمها بر اساس معیارهایی مثل تعداد لایک و کامنت، نرخ تعامل (engagement rate)، مدتزمان تماشا، محتوای تصویری یا متنی (تحلیلشده با هوش مصنوعی)، سوابق قبلی کاربر و علایقش و... تصمیم میگیرند که چه چیزی به چه کسی نشان داده شود.اما در کنار این چینش هوشمند، موضوعی به نام shadow banning (ممنوعیت در سایه) یا downgrading هم وجود دارد؛ پستهایی که عملاً به انتهای فید سقوط میکنند و هیچکس آنها را نمیبیند، بدون اینکه حذف شده باشند یا اخطاری به کاربر داده شده باشد.
تیغ سانسور پنهان بر آزادی بیان
بسیاری از مطالبی که تحت سانسور پنهان قرار میگیرند، بهظاهر «خطرناک» نیستند. اما از دید پلتفرمها، به دلایلی ترجیح داده میشود که کمتر دیده شوند. این دلایل ممکن است از این قبیل باشند:محتوای سیاسی یا اعتراضی (مثل جنبشهای اجتماعی، اعتراضات مردمی یا کارزارهای حقوق بشری)؛موضوعات جنجالی دربارهٔ اقلیتهای جنسی، قومی یا مذهبی؛مطالبی که با منافع تجاری شرکتها یا برندها در تضاد باشد؛انتقاد از قدرتهای سیاسی، نظامی یا اقتصادی جهانی؛اخبار مستقل، تحلیلهای انتقادی و گزارشهای میدانی فاقد تأیید رسمی.مثلاً در نسلکشی غزه، بسیاری از کاربران از کشورهای مختلف گزارش دادند که پستهای حمایتیشان از فلسطین به طرز مشکوکی بازدید نمیگرفت، بیآنکه دلیل واضحی برایش وجود داشته باشد.
سانسور الگوریتمی خطرناکتر از سانسور کلاسیک
در سانسور کلاسیک، کاربر میداند که محتوایش فیلتر یا حذف شده. نهاد مشخصی مسئول این فرآیند است و گاهی امکان اعتراض قانونی وجود دارد. اما در سانسور الگوریتمی، محتوای کاربر منتشر میشود، ولی دیده نمیشود؛ بدون آنکه هشداری داده شود و کاربر متوجه شود چه اتفاقی افتاده است.این ویژگی نهتنها اعتراض را غیرممکن میکند، بلکه باعث افزایش خودسانسوری میشود. به این گونه که کاربر پس از مدتی که تلاشهایش بازخورد نمیگیرند، تصمیم میگیرد دربارهٔ موضوعات حساس صحبت نکند.
وقتی الگوریتمها سود را ترجیح میدهند
الگوریتمها محصول شرکتهای خصوصی هستند و هدف نهایی آنها، حداکثرسازی سود و حفظ کاربران و تبلیغدهندگان است. بنابراین محتوایی که بیحاشیه، سرگرمکننده، و موردعلاقهی برندهای تجاری باشد، مثل پستهایی دربارهٔ سگها و گربهها، چالشهای فراگیرشده، طرز تهیهٔ غذاها و...، بیشتر در معرض دید قرار میگیرند؛ اما صدای اعتراض به نسلکشی، سیاستهای استعماری و... اغلب خفه میشوند.این الگوریتمها ناخودآگاه محتوای انتقادی، مستقل، سیاسی یا اخلاقمحور را به حاشیه میرانند. به همین خاطر، ساختار رسانهای ما به تدریج تبدیل به فضایی میشود که در آن اخبار روز جای خود را به داباسمش، چالشهای اینستاگرامی و ویدیوهای کوتاه زرد و تفریحی میدهند.
بلایی که سانسور الگوریتمی بر سر جامعه میآورد
سانسور پنهان الگوریتمی، فراتر از حذف یک پست یا ویدیو است و پیامدهایی گسترده و چندلایه دارد. از جمله:* تحریف واقعیت اجتماعی: مردم تصور میکنند چیزی که در فید آنها نیست، وجود خارجی ندارد. این باعث «واقعیتسازی جعلی» توسط پلتفرمها میشود.* تضعیف مشارکت اجتماعی و سیاسی: کاربران به این باور میرسند که «هیچچیز تغییر نمیکند» و «هیچ صدایی شنیده نمیشود»، پس کمکم کنشگری را کنار میگذارند.* افزایش بیاعتمادی به رسانهها و شبکهها: این بیاعتمادی ممکن است به انزوا، قطع ارتباط دیجیتال یا گرایش به منابع اطلاعاتی ناسالم منجر شود.* افزایش سهم محتوای کمعمق: محتوای زرد، بدون تحلیل و غیرانتقادی، بیشتر دیده میشود. این مسئله موجب سطحی شدن فرهنگ عمومی و بیتفاوتی اجتماعی میشود.
چگونه میتوان با سانسور پنهان مقابله کرد؟
مقابله با پدیدهٔ سانسور پنهان، نیازمند کنشگری جمعی، شفافسازی نهادی و ارتقای آگاهی عمومی است. این مسئله، صرفاً یک دغدغهٔ فنی یا موردی نیست. بلکه موضوعی اجتماعی و ساختاری است که مستقیماً با آزادی بیان، عدالت اطلاعاتی و دموکراسی رسانهای گره خورده است.برای مواجههٔ مؤثر با این پدیده، میتوان به راهکارهای زیر اندیشید:شفافسازی در عملکرد الگوریتمها: ضروری است که پلتفرمهای دیجیتال، سازوکارهای تصمیمگیری الگوریتمی خود را برای کاربران شفاف کنند. کاربران باید بدانند بر چه اساسی محتوای آنها کمتر دیده میشود، دسترسیشان محدود میشود یا از چرخهٔ پیشنهاد خارج میشود.ایجاد سازوکارهای رسمی برای اعتراض و پیگیری: ضرورت دارد سازوکارهایی مؤثر و پاسخگو برای اعتراض کاربران نسبت به محدودسازی محتوایشان پیشبینی شود. سیستمهای فعلی گزارشدهی اغلب ناکارآمد، غیرشفاف و بدون بازخورد مشخص هستند.ارتقای سواد رسانهای در سطوح مختلف جامعه: آگاهی از نقش الگوریتمها در شکلدهی به واقعیتهای اجتماعی، ضرورتی اجتنابناپذیر است. آموزش عمومی در این حوزه میتواند کاربران را به ناظران فعال و نقاد فضای مجازی بدل کند، نه صرفاً مصرفکنندگانی منفعل.حمایت از پلتفرمهای جایگزین و غیرمتمرکز: با توجه به تمرکز قدرت در پلتفرمهای انحصاری، حمایت از شبکههای اجتماعی مستقل، متنباز یا غیرمتمرکز میتواند فضای تنوع رسانهای و آزادی بیان را تقویت کند.
همصدایی فراملی برای تدوین مقررات روشن و الزامآور: تدوین قوانین بینالمللی با هدف الزام پلتفرمها به شفافیت، پاسخگویی و رعایت حقوق کاربران، میتواند گامی مؤثر در مقابله با دستکاریهای پنهان الگوریتمی باشد. تحقق این امر نیازمند همکاری دولتها، نهادهای مدنی و جامعهٔ کاربران در سطح جهانی است.
حرف آخر...
الگوریتمها دیگر فقط ابزار نیستند؛ آنها قاضیانی خاموشاند که تصمیم میگیرند چه کسی دیده شود و چه کسی در سکوت دفن شود. در جهانی که سکوت به معنی حذف است، دیده نشدن یعنی سانسور. اگر امروز نسبت به این روند بیتفاوت باشیم، فردا در جهانی بیدار خواهیم شد که حقیقت تنها با اجازهٔ الگوریتمها قابل دیدن است.برای حفظ دموکراسی اطلاعاتی، باید این «سانسور بیصدا» را دید، شناخت و دربارهاش سخن گفت.
نظر شما