کد خبر 272419
۲۷ فروردین ۱۴۰۴ - ۱۸:۰۳

حقیقت را الگوریتم‌های مجازی تعریف می‌کنند

حقیقت را الگوریتم‌های مجازی تعریف می‌کنند

در دنیایی که حذف محتوا دیگر تنها شکل سانسور نیست، الگوریتم‌ها با تعیین آنچه دیده می‌شود یا نمی‌شود، واقعیت را بازتعریف می‌کنند. «سانسور پنهان» یا همان خفگی بی‌صدا، تهدیدی تازه برای آزادی بیان در عصر دیجیتال است؛ تهدیدی که باید شناخت و درباره‌اش آگاه بود.

به گزارش پایگاه خبری حیات به نقل از فارس،  در عصر شبکه‌های اجتماعی و وفور اطلاعات، بسیاری از ما تصور می‌کنیم دیگر سانسور معنی ندارد و همهٔ اطلاعات در دسترسمان است. فکر می‌کنیم دیگر خبری از تیغ سانسور رسمی نیست که سر محتوا را ببُرد، روزنامه‌ها را توقیف کند یا گزارشگران را بازخواست. اما واقعیت، لایه‌ای پنهان‌تر و پیچیده‌تر دارد. امروز «الگوریتم‌ها» همان نقشی را بازی می‌کنند که زمانی «سانسورچی‌ها» بر عهده داشتند، اما بی‌صدا، با ظاهری مدرن و بی‌هیچ رد پایی.در این گزارش به بررسی پدیدهٔ «سانسور الگوریتمی» یا «سانسور پنهان» می‌پردازیم؛ فرآیندی که در آن، محتوا حذف نمی‌شود، اما دیده هم نمی‌شود. پدیده‌ای که شاید بی‌خطر به نظر برسد، اما تأثیرات اجتماعی، فرهنگی و حتی سیاسی آن عمیق‌تر از سانسور کلاسیک است.

سانسور پنهان در دنیای انفجار اطلاعات!

در دوره‌ای که آزادی بیان و گردش آزادانهٔ اطلاعات ادعای کشورهای مدعی پیشرفت و تمدن است، محدودیت محتوای مرتبط با فلسطین در پلتفرم‌های متا فریاد اعتراض بسیاری را بلند کرد.به طور مثال به گزارش یورونیوز، در بازهٔ اکتبر تا نوامبر ۲۰۲۳، سازمان دیده‌بان حقوق بشر بیش از ۱۰۵۰ مورد حذف یا سرکوب محتوای مرتبط با فلسطین را در اینستاگرام و فیس‌بوک مستند کرده است. این اقدامات شامل حذف پست‌ها، کاهش دسترسی و محدودیت در نمایش محتواهای کاربران فلسطینی و حامیان آنها بود. این سازمان اعلام کرد که این سانسورها به‌صورت نظام‌مند و جهانی اعمال شده‌اند.در جریان نسل‌کشی در غزه نیز الگوریتم‌های شبکه‌های اجتماعی به‌طور فعال محتوای مرتبط با فلسطین را سانسور و نشر آن را محدود کردند. این اقدامات باعث شد تا بسیاری از کاربران نتوانند اطلاعات مربوط به این موضوع را به‌طور کامل دریافت کنند.«عبدالحکیم احمینه» کارشناس رسانه و ارتباطات می‌گوید «فعالیت گستردهٔ جوانان فلسطینی در فضای مجازی باعث شده که رژیم صهیونیستی شخصیت‌های برجستهٔ شبکه‌های اجتماعی از جمله صاحبان کانال‌های یوتیوب یا خبرنگارانی که به‌طور زنده وقایع غزه را گزارش می‌کنند، هدف قرار دهد.»به گفتهٔ او برخی کشورها، به‌ویژه فرانسه و آلمان، در ابتدای جنگ نوعی محدودیت دیجیتال برای کاربران شبکه‌ای مجازی در کشورهایشان اعمال کردند. اما در پی افزایش حمایت عمومی مردم از آرمان فلسطین وادار به عقب‌نشینی شدند.«حسن خرجوج» از پژوهشگران فناوری نیز در این باره می‌گوید «الگوریتم‌های سکوهای دیجیتال به‌شدت محتوای مربوط به فلسطین را سانسور کرده و نشر آن را محدود می‌کنند.»
این نمونه‌ها نشان می‌دهند که سانسور الگوریتمی چالشی جدی در فضای دیجیتال است که می‌تواند بر آزادی بیان و دسترسی به اطلاعات تأثیر بگذارد.شفاف‌سازی عملکرد الگوریتم‌ها و پاسخگویی پلتفرم‌ها به کاربران، گام‌های مهمی در جهت مقابله با این نوع سانسور محسوب می‌شوند.

الگوریتم چگونه قضاوت می‌کند؟

در پلتفرم‌هایی مثل اینستاگرام، توییتر (یا ایکس)، یوتیوب، تیک‌تاک یا...، میلیاردها پست، توییت، ویدیو و نظر روزانه تولید می‌شود. این شرکت‌ها الگوریتم‌هایی هوشمند برای چینش، نمایش و پیشنهاد محتوا طراحی کرده‌اند.این الگوریتم‌ها بر اساس معیارهایی مثل تعداد لایک و کامنت، نرخ تعامل (engagement rate)، مدت‌زمان تماشا، محتوای تصویری یا متنی (تحلیل‌شده با هوش مصنوعی)، سوابق قبلی کاربر و علایقش و... تصمیم می‌گیرند که چه چیزی به چه کسی نشان داده شود.اما در کنار این چینش هوشمند، موضوعی به نام shadow banning (ممنوعیت در سایه) یا downgrading هم وجود دارد؛ پست‌هایی که عملاً به انتهای فید سقوط می‌کنند و هیچ‌کس آنها را نمی‌بیند، بدون اینکه حذف شده باشند یا اخطاری به کاربر داده شده باشد.

تیغ سانسور پنهان بر آزادی بیان

بسیاری از مطالبی که تحت سانسور پنهان قرار می‌گیرند، به‌ظاهر «خطرناک» نیستند. اما از دید پلتفرم‌ها، به دلایلی ترجیح داده می‌شود که کمتر دیده شوند. این دلایل ممکن است از این قبیل باشند:محتوای سیاسی یا اعتراضی (مثل جنبش‌های اجتماعی، اعتراضات مردمی یا کارزارهای حقوق بشری)؛موضوعات جنجالی دربارهٔ اقلیت‌های جنسی، قومی یا مذهبی؛مطالبی که با منافع تجاری شرکت‌ها یا برندها در تضاد باشد؛انتقاد از قدرت‌های سیاسی، نظامی یا اقتصادی جهانی؛اخبار مستقل، تحلیل‌های انتقادی و گزارش‌های میدانی فاقد تأیید رسمی.مثلاً در نسل‌کشی غزه، بسیاری از کاربران از کشورهای مختلف گزارش دادند که پست‌های حمایتی‌شان از فلسطین به طرز مشکوکی بازدید نمی‌گرفت، بی‌آنکه دلیل واضحی برایش وجود داشته باشد.

سانسور الگوریتمی خطرناک‌تر از سانسور کلاسیک

در سانسور کلاسیک، کاربر می‌داند که محتوایش فیلتر یا حذف شده. نهاد مشخصی مسئول این فرآیند است و گاهی امکان اعتراض قانونی وجود دارد. اما در سانسور الگوریتمی، محتوای کاربر منتشر می‌شود، ولی دیده نمی‌شود؛ بدون آنکه هشداری داده شود و کاربر متوجه شود چه اتفاقی افتاده است.این ویژگی نه‌تنها اعتراض را غیرممکن می‌کند، بلکه باعث افزایش خودسانسوری می‌شود. به این گونه که کاربر پس از مدتی که تلاش‌هایش بازخورد نمی‌گیرند، تصمیم می‌گیرد دربارهٔ موضوعات حساس صحبت نکند.

وقتی الگوریتم‌ها سود را ترجیح می‌دهند

الگوریتم‌ها محصول شرکت‌های خصوصی هستند و هدف نهایی آنها، حداکثرسازی سود و حفظ کاربران و تبلیغ‌دهندگان است. بنابراین محتوایی که بی‌حاشیه، سرگرم‌کننده، و موردعلاقه‌ی برندهای تجاری باشد، مثل پست‌هایی دربارهٔ سگ‌ها و گربه‌ها، چالش‌های فراگیرشده، طرز تهیهٔ غذاها و...، بیشتر در معرض دید قرار می‌گیرند؛ اما صدای اعتراض به نسل‌کشی، سیاست‌های استعماری و... اغلب خفه می‌شوند.این الگوریتم‌ها ناخودآگاه محتوای انتقادی، مستقل، سیاسی یا اخلاق‌محور را به حاشیه می‌رانند. به همین خاطر، ساختار رسانه‌ای ما به تدریج تبدیل به فضایی می‌شود که در آن اخبار روز جای خود را به داب‌اسمش، چالش‌های اینستاگرامی و ویدیوهای کوتاه زرد و تفریحی می‌دهند.

بلایی که سانسور الگوریتمی بر سر جامعه می‌آورد

سانسور پنهان الگوریتمی، فراتر از حذف یک پست یا ویدیو است و پیامدهایی گسترده و چندلایه دارد. از جمله:* تحریف واقعیت اجتماعی: مردم تصور می‌کنند چیزی که در فید آنها نیست، وجود خارجی ندارد. این باعث «واقعیت‌سازی جعلی» توسط پلتفرم‌ها می‌شود.* تضعیف مشارکت اجتماعی و سیاسی: کاربران به این باور می‌رسند که «هیچ‌چیز تغییر نمی‌کند» و «هیچ صدایی شنیده نمی‌شود»، پس کم‌کم کنشگری را کنار می‌گذارند.* افزایش بی‌اعتمادی به رسانه‌ها و شبکه‌ها: این بی‌اعتمادی ممکن است به انزوا، قطع ارتباط دیجیتال یا گرایش به منابع اطلاعاتی ناسالم منجر شود.* افزایش سهم محتوای کم‌عمق: محتوای زرد، بدون تحلیل و غیرانتقادی، بیشتر دیده می‌شود. این مسئله موجب سطحی شدن فرهنگ عمومی و بی‌تفاوتی اجتماعی می‌شود.

چگونه می‌توان با سانسور پنهان مقابله کرد؟

مقابله با پدیدهٔ سانسور پنهان، نیازمند کنش‌گری جمعی، شفاف‌سازی نهادی و ارتقای آگاهی عمومی است. این مسئله، صرفاً یک دغدغهٔ فنی یا موردی نیست. بلکه موضوعی اجتماعی و ساختاری است که مستقیماً با آزادی بیان، عدالت اطلاعاتی و دموکراسی رسانه‌ای گره خورده است.برای مواجههٔ مؤثر با این پدیده، می‌توان به راهکارهای زیر اندیشید:شفاف‌سازی در عملکرد الگوریتم‌ها: ضروری است که پلتفرم‌های دیجیتال، سازوکارهای تصمیم‌گیری الگوریتمی خود را برای کاربران شفاف کنند. کاربران باید بدانند بر چه اساسی محتوای آنها کمتر دیده می‌شود، دسترسی‌شان محدود می‌شود یا از چرخهٔ پیشنهاد خارج می‌شود.ایجاد سازوکارهای رسمی برای اعتراض و پیگیری: ضرورت دارد سازوکارهایی مؤثر و پاسخ‌گو برای اعتراض کاربران نسبت به محدودسازی محتوایشان پیش‌بینی شود. سیستم‌های فعلی گزارش‌دهی اغلب ناکارآمد، غیرشفاف و بدون بازخورد مشخص هستند.ارتقای سواد رسانه‌ای در سطوح مختلف جامعه: آگاهی از نقش الگوریتم‌ها در شکل‌دهی به واقعیت‌های اجتماعی، ضرورتی اجتناب‌ناپذیر است. آموزش عمومی در این حوزه می‌تواند کاربران را به ناظران فعال و نقاد فضای مجازی بدل کند، نه صرفاً مصرف‌کنندگانی منفعل.حمایت از پلتفرم‌های جایگزین و غیرمتمرکز: با توجه به تمرکز قدرت در پلتفرم‌های انحصاری، حمایت از شبکه‌های اجتماعی مستقل، متن‌باز یا غیرمتمرکز می‌تواند فضای تنوع رسانه‌ای و آزادی بیان را تقویت کند.
هم‌صدایی فراملی برای تدوین مقررات روشن و الزام‌آور: تدوین قوانین بین‌المللی با هدف الزام پلتفرم‌ها به شفافیت، پاسخ‌گویی و رعایت حقوق کاربران، می‌تواند گامی مؤثر در مقابله با دستکاری‌های پنهان الگوریتمی باشد. تحقق این امر نیازمند همکاری دولت‌ها، نهادهای مدنی و جامعهٔ کاربران در سطح جهانی است.

حرف آخر...

الگوریتم‌ها دیگر فقط ابزار نیستند؛ آنها قاضیانی خاموش‌اند که تصمیم می‌گیرند چه کسی دیده شود و چه کسی در سکوت دفن شود. در جهانی که سکوت به معنی حذف است، دیده نشدن یعنی سانسور. اگر امروز نسبت به این روند بی‌تفاوت باشیم، فردا در جهانی بیدار خواهیم شد که حقیقت تنها با اجازهٔ الگوریتم‌ها قابل دیدن است.برای حفظ دموکراسی اطلاعاتی، باید این «سانسور بی‌صدا» را دید، شناخت و درباره‌اش سخن گفت.

نظر شما

شما در حال پاسخ به نظر «» هستید.
captcha