چت باتهای جاسوس!

مهرین نظری
درحالیکه هوش مصنوعی نقش پررنگی در زندگی و کسب و کار مردم پیدا کرده است، حالا نگرانی تازهای به وجود آمده: آیا دولتها باید اجازه داشته باشند به مکالمات کاربران با چتباتها دسترسی داشته باشند؟ پشت پرده مدلهای مولد، نبردی خاموش اما عمیق در جریان است. نبردی میان امنیت ملی، حریم خصوصی و قدرت بیحد و مرز دادهها.
وقتی امنیت ملی، بهانه شنود میشود
از سال ۲۰۱۳ و افشاگریهای ادوارد اسنودن درباره پروژه PRISM، آشکار شد که دولت آمریکا با همکاری پنهانی شرکتهایی نظیر گوگل، اپل، فیسبوک و مایکروسافت، به دادههای کاربران دسترسی داشته است.
حالا با ظهور چتباتهایی مانند ChatGPT، Gemini، Claude و Copilot، که بهصورت گسترده در تعامل با کاربران هستند، دوباره نگرانیها درباره سوءاستفاده از این دسترسیها افزایش یافته است.
این مدلها اغلب دادههای کاربران را برای آموزش خود ذخیره میکنند؛ البته با تنظیمات اختیاری. اما کاربر معمولی چند درصد به تنظیمات حریم خصوصی توجه میکند؟ از سوی دیگر، کشورهای دیگری مثل چین، روسیه و برخی کشورهای خاورمیانه قوانین سختگیرانهتری برای دسترسی دولت به دادهها وضع کردهاند.
در چین، قانون امنیت سایبری به دولت این امکان را میدهد که به تمامی دادههای دیجیتال دسترسی قانونی داشته باشد. بهعبارتی، اگر چتباتی در چین فعال است، نمیتواند از چشم نظارتی دولت فرار کند.
شفافیت قربانی سودآوری پنهان
شرکتهای توسعهدهنده مدلهای زبانی بزرگ، از جمله OpenAI و Anthropic، سالهاست با انتقادات شدیدی درباره نحوه ذخیره و استفاده از دادههای کاربران مواجهاند. کمیسیون اتحادیه اروپا در سال ۲۰۲۳ از OpenAI خواست شفافسازی کند که چگونه از مکالمات کاربران استفاده میکند.
این شرکت ابتدا ادعا کرد هیچ داده حساسی ذخیره نمیشود، اما مشخص شد برخی مکالمات بهصورت دستی توسط کارکنان بررسی و برای بهینهسازی مدلها استفاده میشوند.
در ایران، اما ماجرا پیچیدهتر و مبهمتر است. نه تنها هیچ مقررات مشخصی برای محافظت از دادههای کاربران در هوش مصنوعی وجود ندارد، بلکه استفاده از مدلهای خارجی مانند ChatGPT با فیلترشکن و در غیاب شفافیت کامل صورت میگیرد. در چنین فضای خاکستری، حریم خصوصی عملاً به یک شوخی تبدیل شده است.
چتبات بهمثابه ابزار نظارت، ترس از آینده ماشینی بیچهره
یکی از سناریوهای خطرناک، طراحی چتبات هایی است که بر اساس دستورالعملهای دولتی، مکالمات حساس را شناسایی و گزارش دهند. در برخی کشورها مانند چین، این الگو قبلاً در شبکههای اجتماعی اجرا شده است. محتواهایی که از نظر دولت حساس یا تهدیدزا تلقی شوند، بهسرعت حذف میشوند یا کاربر هدف اقدامات بعدی قرار میگیرد.
در دموکراسیهای غربی نیز قانونگذاریهای جدیدی در راه است که با هدف کنترل محتوای خطرناک، به شرکتها اجازه میدهد مکالمات را بررسی و پالایش کنند.
قانون DSA اروپا یکی از این نمونههاست که در ظاهر هدفش حفاظت از کاربران است، اما در عمل میتواند به ابزاری برای نظارت غیرمستقیم تبدیل شود. تعیین اینکه «محتوای خطرناک» چیست و چه کسی آن را تعریف میکند، هنوز شفاف نیست.
نبرد دولت و بازار بر سر ذهن کاربران
شرکتهای فناوری تمایلی به توقف جمعآوری دادهها ندارند، زیرا این دادهها ستون فقرات مدلهای یادگیری ماشینی آنهاست. از سوی دیگر، دولتها نیز نمیخواهند از قدرت نظارتی که هوش مصنوعی در اختیارشان میگذارد، چشمپوشی کنند. این یعنی حتی اگر در ظاهر، بحث امنیت ملی و حفاظت از کاربران مطرح باشد، در عمل ما با نزاعی بر سر سلطه بر ذهن، گفتار و رفتار دیجیتال انسانها روبهرو هستیم.
مکالمهای که یک کاربر درباره مشکلات روانی، مسائل خانوادگی یا دغدغههای سیاسیاش با چتبات انجام میدهد، میتواند منبعی ارزشمند برای تحلیلهای رفتاری، شناسایی گرایشهای جمعی یا حتی سرکوب مخالفان در رژیمهای اقتدارگرا باشد. اگر این دادهها در اختیار دولتها قرار گیرد، مرز میان کمکرسانی و کنترل اجتماعی بهشدت کمرنگ میشود.
ایران در سایه، غرب در تردید
در ایران، نه شفافیت شرکتهای هوش مصنوعی وجود دارد، نه قوانینی که از کاربران محافظت کند. در غیاب یک سیستم حقوقی دیجیتال، چتباتها میتوانند تبدیل به ابزاری شوند برای کنترل، مانیتورینگ و حتی پروندهسازی برای کاربران.
در ایالات متحده و اروپا، هرچند نهادهای نظارتی فعالترند، اما فشار دولتها برای افزایش نظارت دیجیتال روزبهروز بیشتر میشود. مسائلی مانند تروریسم، فیکنیوز، سوءاستفاده جنسی از کودکان و جرایم سایبری، بهانههایی هستند که میتوانند زمینهساز توجیه دخالتهای گسترده در دادههای کاربران شوند.
آیا میتوان به هوش مصنوعی اعتماد کرد؟
در نهایت آیا چتباتها قرار است نقش مشاور، همصحبت، آموزگار و همراه ما را ایفا کنند یا تبدیل شوند به پلیس دیجیتال و ابزار شنود دولتها؟ آیا اعتماد به این فناوریها بدون تضمین قانونی، هوشمندانه است؟
مدلهای زبانی بزرگ به سرعت در حال رشد هستند، اما همزمان با قدرت گرفتن آنها، مسئولیتپذیریشان کاهش یافته است. بدون نظارت شفاف، قوانین مشخص و فشار جامعه مدنی، بعید نیست که چتباتها از ابزارهای مفید به اهرمهایی برای سرکوب نرم تبدیل شوند.
آیندهای دوگانه، انتخاب میان آزادی یا نظارت
اکنون جهان در نقطهای تعیینکننده ایستاده است. یک مسیر، به سوی توسعه شفاف، هوش مصنوعی پاسخگو و محافظتشده از حریم خصوصی میرود. مسیر دیگر، راهی است تاریک که در آن، چتباتها به ابزار نظارتی دولتها بدل میشوند، اعتماد عمومی فرو میریزد و آزادی بیان در سکوت الگوریتمها دفن میشود.
تصمیم با ماست. با قانونگذاری، شفافیت و فشار رسانهها، میتوان مسیر نخست را ممکن کرد. اما اگر سکوت کنیم، الگوریتمها ما را خواهند بلعید.