آیا الگوریتمها آزادی بیان را خفه میکنند؟

در دنیایی که قرار بود هوش مصنوعی صدای انسان را بهتر بشنود، حالا صدای بسیاری را خاموش کرده است. الگوریتمهایی که روزی برای مقابله با نفرتپراکنی، خشونت، پورنوگرافی و اخبار جعلی طراحی شده بودند، حالا به ابزاری برای حذف اعتراض، افشاگری و حتی طنز سیاسی بدل شدهاند. آنهم بدون اخطار، بدون توضیح و بدون امکان دفاع.
وقتی الگوریتمها با آزادی بیان سر جنگ دارند
پلتفرمهای بزرگی مانند فیسبوک، یوتیوب، اینستاگرام و تیکتاک با استفاده از الگوریتمهای یادگیری ماشین محتوا را پالایش میکنند. اما این پالایش، اغلب محافظهکارانه و بیش از حد سختگیرانه است. کوچکترین اشاره به موضوعات حساس میتواند باعث حذف یا پنهانسازی محتوا شود. برای مثال، کاربران ایرانی بارها گزارش دادهاند که استوریها و پستهایشان درباره اعتراضات خیابانی یا بازداشتها ناپدید شده یا میزان دیدهشدنشان بهطور مشکوکی کاهش یافته است.
سانسور سیستماتیک با برچسب الگوریتمی
در جریان حمله اسرائیل به غزه در سال ۲۰۲۳، فیسبوک متهم شد که بهصورت سیستماتیک محتوای مرتبط با فلسطین را حذف میکند. حتی برخی کارکنان سابق متا فاش کردند که الگوریتمها عمداً برای کاهش دیدهشدن این نوع محتوا تنظیم شدهاند. درواقع، آنچه زمانی تعدیل محتوا تلقی میشد، حالا به ابزار سانسور ساختاری تبدیل شده است.
مشکل اصلی اینجاست که الگوریتمها بیرحمتر از انسانها عمل میکنند. اگر یک کلمه یا تصویر در فهرست سیاه قرار بگیرد، دیگر مهم نیست محتوا چه هدفی داشته باشد.
سانسور هوشمندانه با حمایت دولتها
قدرتهای سیاسی نیز با آغوش باز از این سانسور جدید استقبال کردهاند. چین سالهاست با بهرهگیری از الگوریتمهای بومی، محتوای شبکههای اجتماعی را کنترل میکند. آمریکا نیز از مسیر متفاوتی وارد میدان شده و با اعمال فشار بر شرکتهای فناوری، آنها را وادار به تبعیت از دستورالعملهای خاص کرده است. در این میان، شرکتها هم ترجیح میدهند ریسک نکنند و برای فرار از حاشیه، همه چیز را فیلتر کنند.
مرز تاریک بین تعدیل محتوا و سانسور
شرکتها ادعا میکنند از کاربران محافظت میکنند، اما چه کسی از آزادی بیان کاربران محافظت میکند؟ وقتی حذف یا پنهانسازی محتوا برعهده مدلی است که هیچ منطق انسانی ندارد و پاسخگو هم نیست، باید زنگ خطر را به صدا درآورد. بهویژه وقتی کاربران حتی متوجه نمیشوند که صدایشان شنیده نمیشود.
وقتی سکوت از فریاد خطرناکتر میشود
یکی از پیچیدهترین اشکال سانسور مدرن، «خفهسازی سایهای» یا Shadow Banning است. در این روش، پست نه حذف میشود و نه اخطار میگیرد؛ فقط بهصورت خاموش از دید مخاطبان پنهان میشود. کاربر فکر میکند که حرفش را زده، اما در واقع هیچکس صدایش را نمیشنود. این نوع سانسور نامرئی، خطرناکترین شکل حذف صداست؛ بیصدا، بیهشدار، بیامکان اعتراض.
نهادهای حقوق بشری: شفافیت الگوریتمی یا بیاعتمادی عمومی؟
نهادهایی مثل دیدهبان حقوق بشر، گزارشگران بدون مرز و بنیاد مرزهای الکترونیکی بارها درباره خطرات «سانسور الگوریتمی» هشدار دادهاند. آنها خواهان شفافسازی الگوریتمها، انتشار معیارهای حذف محتوا و ایجاد سازوکار اعتراض مؤثر شدهاند. اما شرکتهای فناوری اغلب از افشای جزییات الگوریتمهای خود خودداری میکنند و آنها را «دارایی محرمانه» مینامند.
اروپا گام برداشت، جهان چه میکند؟
اتحادیه اروپا با تصویب «قانون خدمات دیجیتال» (DSA) تلاش کرده تا کنترل این وضعیت را در دست بگیرد. این قانون شرکتها را ملزم به مستندسازی الگوریتمهای پالایش محتوا و فراهمکردن امکان بازبینی انسانی میکند. اما این قانون هنوز فراگیر نشده و صرفاً در کشورهای عضو اتحادیه اجرایی است. ایالات متحده، چین و بسیاری دیگر از کشورها هنوز هیچ قانون الزامآوری در این حوزه ندارند.
الگوریتمهایی با تعصب، یادگیری از دادههای آلوده
یکی از مشکلات اساسی مدلهای هوش مصنوعی، تغذیه از دادههایی است که خود آلوده به تعصباند. این یعنی الگوریتمها ناخواسته میتوانند روایتهای خاصی را تقویت و دیگر روایتها را سرکوب کنند. برای مثال، پستی درباره اعتراضات در غرب ممکن است بهعنوان محتوای مشروع در نظر گرفته شود، اما همان پست درباره کشوری در خاورمیانه بهعنوان تهدید تشخیص داده شده و حذف شود.
آیندهای خطرناک در سایه الگوریتمهای بیچهره
در جهانی که هوش مصنوعی نقش فزایندهای در مدیریت اطلاعات دارد، خطر آن است که حتی ندانیم چه چیزی از ما پنهان شده است. امروز میتوان درباره عملکرد الگوریتمها پرسید، اما اگر شفافیت و پاسخگویی وجود نداشته باشد، فردا ممکن است حتی سؤالکردن هم ممکن نباشد.
در شرایطی که داده طلاست و توجه، سرمایه اصلی پلتفرمها محسوب میشود، سانسور الگوریتمی نهفقط تهدیدی برای آزادی بیان بلکه خطری واقعی برای دموکراسی و حقیقت است. شاید مهمترین سؤال ما این باشدکه چه کسی الگوریتمها را کنترل میکند؟ و الگوریتمها قرار است از چه کسی محافظت کنند؟