سونامی محتوای مصنوعی
مهرین نظری
موج تازهای از محتوا که بهدست هوش مصنوعی تولید میشود فضای اینترنت را فرا گرفته است. گزارشها حاکیست ممکن است تا چند سال آینده نزدیک به ۹۰٪ محتوای آنلاین را تولیدات ماشینی تشکیل دهند.
این انفجار مطالب مصنوعی در حال بازتعریف «اقتصاد محتوا» است و همزمان زنگ خطرهایی درباره کیفیت اطلاعات، اعتبار رسانهها و نحوه مواجهه پلتفرمها و قانونگذاران به صدا درآورده است.
رشد انفجاری محتوای تولیدشده توسط هوش مصنوعی
تنها در عرض یکی دو سال، حجم محتوای تولیدشده توسط الگوریتمهای زبانی جهشی چشمگیر داشته است. یک بررسی نشان داد نزدیک به ۴۷٪ از پستهای منتشرشده در پلتفرم مدیوم در یک دوره ششهفتهای اخیر احتمالاً توسط AI نوشته شدهاند؛ این سهم در سال ۲۰۱۸ تنها حدود ۳٪ بود.
الگوریتمهای مولد متن اکنون خوراک هزاران وبسایت را تأمین میکنند؛ از وبلاگهای شخصی گرفته تا رسانههای متروکهای که با انبوه مطالب خودکار احیا شدهاند. به عنوان نمونه، یک «سلطان کلیکبیت» در صربستان بیش از ۲٬۰۰۰ دامنهٔ اینترنتی رهاشده را خریده و با مقالههای تولیدشده توسط چتجیپیتی پر کرده است.
حتی آگهیهای استخدام، نقشهایی چون «ویراستار هوش مصنوعی» تعریف کردهاند که انتظار میرود هفتهای صدها مقاله توسط AI منتشر کند. کارشناسان میگویند این روند تازه آغاز راه است و شاید بهزودی محتوای غیرانسانی گوی سبقت را از محتوای انسانی برباید؛ به طوری که طبق یک برآورد، تا سال ۲۰۲۶ حدود ۹۰٪ محتوای آنلاین ممکن است ساخت ماشین باشد.
تهدیدها برای کیفیت محتوا
هوش مصنوعی تولید محتوا را آنچنان آسان کرده که وب در معرض «سونامی» مطالب کمارزش قرار گرفته است. ابزارهای مولد متن میتوانند بینهایت مقاله، پست و محتوای تبلیغاتی ارزانقیمت تولید کنند که پر از کلمات کلیدی مرتبط اما عاری از عمق و معنای واقعی است. این سیلاب محتوای مصنوعی نهتنها کیفیت اطلاعات آنلاین را تهدید میکند، بلکه تمایز آن از مطالب معتبر را برای موتورهای جستوجو دشوار میسازد.
بخش عمدهٔ این محتوای خودکار «مطالب آبکی» است؛ از توصیههای تکراری گرفته تا متنهایی که گاه بیمعنی و حتی هذیانگونه بهنظر میرسند. برای نمونه، گزارش شده در فیسبوک انبوهی از محتوای بیسروته که زاییده خروجیهای تصادفی هوش مصنوعی است دست به دست میشود. از سوی دیگر، توانایی AI در تولید اخبار دروغین یا تصاویر ویدیویی جعلی باعث نگرانی عمیقتر دربارهٔ موج جدید اطلاعات نادرست شده است. یوروپل (پلیس اروپا) هشدار داده که رسانههای مصنوعی میتوانند «وقایعی را نشان دهند که هرگز رخ ندادهاند» و واقعیت را مخدوش کنند؛ وضعیتی که تشخیص حقیقت از جعل را دشوارتر از همیشه میسازد.
واکنش پلتفرمها
شرکتهای فناوری و شبکههای اجتماعی برای مهار این سیل محتوای مصنوعی اقداماتی را آغاز کردهاند. گوگل اخیراً تغییرات مهمی در سیستم رتبهبندی جستوجوی خود اعمال کرده تا محتوای «اسپمگونه» و بیکیفیت را از نتایج حذف کند. به گفتهٔ مدیران این شرکت، با بهروزرسانیهای جدید تا ۴۰٪ محتوای «غیرمفید» در نتایج کاهش یافته است. گوگل بهطور خاص سایتهایی را نشانه گرفته که روزانه هزاران مطلب کمکیفیت – عمدتاً تولیدشده توسط AI یا نویسندگان ارزان – منتشر میکنند و صرفاً برای بازیدادن الگوریتمهای جستوجو طراحی شدهاند. همچنین سوءاستفاده از اعتبار وبسایتهای پربازدید (اجاره بخشهایی از سایتهای معتبر برای درج محتوای ساختگی) و خرید دامنههای منقضیشدهٔ مشهور و پُربازدید (مانند ماجرای احیای سایت The Hairpin) زیر ذرهبین گوگل قرار گرفته است.
پلتفرم مدیوم که خود با هجوم «مقالات رباتی» روبرو است، رویکرد متفاوتی در پیش گرفته. تونی استابلباین، مدیرعامل مدیوم، ضمن تأکید بر مخالفت صریح با محتوای AI میگوید سیستمهای نظارتی این شرکت اجازه نمیدهند مطالب خودکارِ بیکیفیت بازدید قابلتوجهی بگیرند: «مهم نیست [چند درصد مطالب AI هستند]… هدف ما این است که این محتوا عملاً صفر بازدید داشته باشد، و همین حالا هم اکثرشان صفر بازدید دارند».
مدیوم با بهروزرسانی سیاستهای خود، انتشار مقالات AI را در بخشهای درآمدزای سایت (نظیر طرح مشارکت نویسندگان) ممنوع کرده و برای توزیع وسیع مطالب، شرط گزینش انسانی قائل شده است. بر این اساس، نوشتههایی که حضور AI در تولیدشان افشا نشده تنها در حد فید محدود دنبالکنندگان نویسنده نمایش داده میشوند؛ در حالی که محتوای افشاشدهٔ AI میتواند در دسترس عموم باشد. مدیوم اذعان کرده هیچ ابزار خودکاری برای شناسایی این موارد ندارد و صرفاً وجود ویراستاران انسانی و سیستم کیفی محتوا بهطور جانبی نوشتههای بد را کنار میزند.
شبکههای اجتماعی نیز با چالش محتواهای مصنوعی دستبهگریباناند. متا (شرکت مادر فیسبوک) ابزارهایی برای برچسبگذاری محتوای ساختهشده با AI ارائه کرده و از کاربران میخواهد هنگام انتشار ویدیوها یا صوتهای واقعنمای تولیدشده توسط هوش مصنوعی، این موضوع را افشا کنند. با این حال رویکرد پلتفرمها یکسان نیست و برخی حتی کاربران را به استفاده از قابلیتهای AI تشویق میکنند.
برای نمونه، لینکدین ابزار نگارش خودکار پست توسط هوش مصنوعی را معرفی کرده و فیسبوک نیز دستیارهای هوشمند چت و تولید تصویر را به خدماتش افزوده است. این رویه دوگانه – از یکسو پذیرش نوآوریهای AI در محصول، و از سوی دیگر تلاش برای حفظ اصالت محتوا – نشان میدهد پلتفرمها هنوز به دنبال یافتن نقطه تعادل در عصر جدید محتوا هستند.
آینده تنظیمگری و قوانین
قانونگذاران در سراسر جهان نیز در تکاپوی مهار پیامدهای موج محتوای مصنوعی برآمدهاند. اتحادیه اروپا در قالب «قانون هوش مصنوعی» (AI Act) مقررات جامعی را پیشبینی کرده که به موجب آن سیستمهای مولد محتوا ملزم به شفافسازی خواهند بود. بر اساس پیشنویس این قانون، ابزارهایی نظیر ChatGPT باید خروجی تولیدشده را بهعنوان محتوای مصنوعی علامتگذاری کنند و مثلاً تصاویر و ویدیوهای عمیقجعلی (دیپفیک) باید صراحتاً برچسب محتوای دستکاریشده داشته باشند.
در ایالات متحده، هرچند هنوز مقرراتی رسمی تصویب نشده، کاخ سفید در سال ۲۰۲۳ با جلب تعهدات داوطلبانه از شرکتهای بزرگ فناوری (از جمله OpenAI، گوگل و متا) گامی اولیه برداشت. این شرکتها متعهد شدهاند مکانیزمهای فنی برای واترمارک کردن انواع محتوای تولیدی توسط AI – از متن گرفته تا تصویر و ویدیو – توسعه دهند تا کاربران بدانند چه زمانی با محتوای ساخت هوش مصنوعی روبرو هستند. قانونگذاران آمریکایی همچنین مشغول بررسی طرحهایی هستند که مثلاً پلتفرمها را ملزم کند در تبلیغات سیاسی اعلام شود آیا از محتوای AI استفاده شده است یا خیر.
با این حال، بسیاری اذعان دارند هیچ ابزار جادویی سریعی برای حل مشکل تمایز محتوا وجود ندارد. حتی واترمارکها و برچسبهایی که برای شفافیت طراحی شدهاند نیز بهراحتی قابل حذف یا تغییر هستند، و تازهترین آشکارسازهای محتوای AI نیز با موج جدیدی از ابزارهای ضدفریب روبرو خواهند شد. به بیان دیگر، نظارت و تنظیمگری در این حوزه به رقابتی بیپایان میان تولیدکنندگان محتوای مصنوعی و ناظران تبدیل شده است.
اعتماد عمومی در مخاطره
طغیان محتوای مصنوعی پیامدهایی عمیق برای اعتماد عمومی به رسانهها و فضای آنلاین داشته است. بر اساس یک نظرسنجی تازه در آمریکا، ۷۶٪ مردم میگویند بسیار مهم است که بتوانند تشخیص دهند یک عکس، ویدیو یا متن توسط انسان ساخته شده یا هوش مصنوعی. با این حال، ۵۳٪ اذعان دارند که در توانایی خود برای تمیز دادن محتوای ساخت AI از محتوای انسانی «زیاد یا اصلاً مطمئن نیستند».
این عدم اطمینان به شکافی در میزان اعتماد منجر شده است: در یک مطالعه، تنها ۴۸٪ از پاسخدهندگان گفتند به اطلاعات تولیدشده توسط هوش مصنوعی تا حدی یا زیاد اعتماد دارند، در حالی که این رقم برای محتوای تولیدشده توسط روزنامهنگاران سنتی ۶۲٪ بود. به عبارت دیگر، مردم در مواجهه با مطلبی که احتمال میدهند محصول AI باشد با دید انتقادیتری نگاه میکنند.
از سوی دیگر، تجربههای اخیر بر نگرانیها افزوده است. در سال ۲۰۲۵ مجلهٔ تکنولوژی معتبر وایرد (WIRED) ناخواسته مقالهای جعلی را منتشر کرد که ظاهراً توسط یک خبرنگار آزاد نوشته شده بود اما بعداً مشخص شد تماماً محصول هوش مصنوعی است. وایرد پس از حذف این مطلب اذعان کرد که «در این دوران جدید، هر تحریریهای باید آمادهٔ مقابله با چنین فریبهایی باشد».
وقتی حتی رسانههای برجسته در دام محتوای ساختگی میافتند، بدبینی مخاطبان نسبت به هرآنچه آنلاین میبینند تشدید میشود. برخی ناظران هشدار میدهند اگر روند فعلی تداوم یابد، ممکن است نظریهٔ بدبینانهٔ «اینترنت مُرده» رنگ واقعیت بگیرد – جهانی که در آن اکثر مطالب و کاربران چیزی جز رباتها و تولیدات الگوریتمی نیستند، و یافتن صدای اصیل انسانی به مراتب دشوارتر از گذشته خواهد بود.







