کد خبر: 300104201167
روزنامهفناوری اطلاعات و ارتباطاتآیا دولت‌ها باید به مکالمات هوش مصنوعی دسترسی داشته باشند؟

چت‌ بات‌های جاسوس!

مهرین نظری

درحالیکه هوش مصنوعی نقش پررنگی در زندگی و کسب و کار مردم پیدا کرده است، حالا نگرانی تازه‌ای به وجود آمده: آیا دولت‌ها باید اجازه داشته باشند به مکالمات کاربران با چت‌بات‌ها دسترسی داشته باشند؟ پشت پرده مدل‌های مولد، نبردی خاموش اما عمیق در جریان است. نبردی میان امنیت ملی، حریم خصوصی و قدرت بی‌حد و مرز داده‌ها.

وقتی امنیت ملی، بهانه شنود می‌شود

از سال ۲۰۱۳ و افشاگری‌های ادوارد اسنودن درباره پروژه PRISM، آشکار شد که دولت آمریکا با همکاری پنهانی شرکت‌هایی نظیر گوگل، اپل، فیس‌بوک و مایکروسافت، به داده‌های کاربران دسترسی داشته است.

حالا با ظهور چت‌بات‌هایی مانند ChatGPT، Gemini، Claude و Copilot، که به‌صورت گسترده در تعامل با کاربران هستند، دوباره نگرانی‌ها درباره سوءاستفاده از این دسترسی‌ها افزایش یافته است.

این مدل‌ها اغلب داده‌های کاربران را برای آموزش خود ذخیره می‌کنند؛ البته با تنظیمات اختیاری. اما کاربر معمولی چند درصد به تنظیمات حریم خصوصی توجه می‌کند؟ از سوی دیگر، کشورهای دیگری مثل چین، روسیه و برخی کشورهای خاورمیانه قوانین سخت‌گیرانه‌تری برای دسترسی دولت به داده‌ها وضع کرده‌اند.

در چین، قانون امنیت سایبری به دولت این امکان را می‌دهد که به تمامی داده‌های دیجیتال دسترسی قانونی داشته باشد. به‌عبارتی، اگر چت‌باتی در چین فعال است، نمی‌تواند از چشم نظارتی دولت فرار کند.

شفافیت قربانی سودآوری پنهان

شرکت‌های توسعه‌دهنده مدل‌های زبانی بزرگ، از جمله OpenAI و Anthropic، سال‌هاست با انتقادات شدیدی درباره نحوه ذخیره و استفاده از داده‌های کاربران مواجه‌اند. کمیسیون اتحادیه اروپا در سال ۲۰۲۳ از OpenAI خواست شفاف‌سازی کند که چگونه از مکالمات کاربران استفاده می‌کند.

این شرکت ابتدا ادعا کرد هیچ داده حساسی ذخیره نمی‌شود، اما مشخص شد برخی مکالمات به‌صورت دستی توسط کارکنان بررسی و برای بهینه‌سازی مدل‌ها استفاده می‌شوند.

در ایران، اما ماجرا پیچیده‌تر و مبهم‌تر است. نه تنها هیچ مقررات مشخصی برای محافظت از داده‌های کاربران در هوش مصنوعی وجود ندارد، بلکه استفاده از مدل‌های خارجی مانند ChatGPT با فیلترشکن و در غیاب شفافیت کامل صورت می‌گیرد. در چنین فضای خاکستری، حریم خصوصی عملاً به یک شوخی تبدیل شده است.

چت‌بات به‌مثابه ابزار نظارت، ترس از آینده ماشینی بی‌چهره

یکی از سناریوهای خطرناک، طراحی چت‌بات‌ هایی است که بر اساس دستورالعمل‌های دولتی، مکالمات حساس را شناسایی و گزارش دهند. در برخی کشورها مانند چین، این الگو قبلاً در شبکه‌های اجتماعی اجرا شده است. محتواهایی که از نظر دولت حساس یا تهدیدزا تلقی شوند، به‌سرعت حذف می‌شوند یا کاربر هدف اقدامات بعدی قرار می‌گیرد.

در دموکراسی‌های غربی نیز قانون‌گذاری‌های جدیدی در راه است که با هدف کنترل محتوای خطرناک، به شرکت‌ها اجازه می‌دهد مکالمات را بررسی و پالایش کنند.

قانون DSA اروپا یکی از این نمونه‌هاست که در ظاهر هدفش حفاظت از کاربران است، اما در عمل می‌تواند به ابزاری برای نظارت غیرمستقیم تبدیل شود. تعیین اینکه «محتوای خطرناک» چیست و چه کسی آن را تعریف می‌کند، هنوز شفاف نیست.

نبرد دولت و بازار بر سر ذهن کاربران

شرکت‌های فناوری تمایلی به توقف جمع‌آوری داده‌ها ندارند، زیرا این داده‌ها ستون فقرات مدل‌های یادگیری ماشینی آن‌هاست. از سوی دیگر، دولت‌ها نیز نمی‌خواهند از قدرت نظارتی که هوش مصنوعی در اختیارشان می‌گذارد، چشم‌پوشی کنند. این یعنی حتی اگر در ظاهر، بحث امنیت ملی و حفاظت از کاربران مطرح باشد، در عمل ما با نزاعی بر سر سلطه بر ذهن، گفتار و رفتار دیجیتال انسان‌ها روبه‌رو هستیم.

مکالمه‌ای که یک کاربر درباره مشکلات روانی، مسائل خانوادگی یا دغدغه‌های سیاسی‌اش با چت‌بات انجام می‌دهد، می‌تواند منبعی ارزشمند برای تحلیل‌های رفتاری، شناسایی گرایش‌های جمعی یا حتی سرکوب مخالفان در رژیم‌های اقتدارگرا باشد. اگر این داده‌ها در اختیار دولت‌ها قرار گیرد، مرز میان کمک‌رسانی و کنترل اجتماعی به‌شدت کمرنگ می‌شود.

ایران در سایه، غرب در تردید

در ایران، نه شفافیت شرکت‌های هوش مصنوعی وجود دارد، نه قوانینی که از کاربران محافظت کند. در غیاب یک سیستم حقوقی دیجیتال، چت‌بات‌ها می‌توانند تبدیل به ابزاری شوند برای کنترل، مانیتورینگ و حتی پرونده‌سازی برای کاربران.

در ایالات متحده و اروپا، هرچند نهادهای نظارتی فعال‌ترند، اما فشار دولت‌ها برای افزایش نظارت دیجیتال روزبه‌روز بیشتر می‌شود. مسائلی مانند تروریسم، فیک‌نیوز، سوءاستفاده جنسی از کودکان و جرایم سایبری، بهانه‌هایی هستند که می‌توانند زمینه‌ساز توجیه دخالت‌های گسترده در داده‌های کاربران شوند.

آیا می‌توان به هوش مصنوعی اعتماد کرد؟

در نهایت آیا چت‌بات‌ها قرار است نقش مشاور، هم‌صحبت، آموزگار و همراه ما را ایفا کنند یا تبدیل شوند به پلیس دیجیتال و ابزار شنود دولت‌ها؟ آیا اعتماد به این فناوری‌ها بدون تضمین قانونی، هوشمندانه است؟

مدل‌های زبانی بزرگ به سرعت در حال رشد هستند، اما هم‌زمان با قدرت گرفتن آن‌ها، مسئولیت‌پذیری‌شان کاهش یافته است. بدون نظارت شفاف، قوانین مشخص و فشار جامعه مدنی، بعید نیست که چت‌بات‌ها از ابزارهای مفید به اهرم‌هایی برای سرکوب نرم تبدیل شوند.

آینده‌ای دوگانه، انتخاب میان آزادی یا نظارت

اکنون جهان در نقطه‌ای تعیین‌کننده ایستاده است. یک مسیر، به سوی توسعه شفاف، هوش مصنوعی پاسخگو و محافظت‌شده از حریم خصوصی می‌رود. مسیر دیگر، راهی است تاریک که در آن، چت‌بات‌ها به ابزار نظارتی دولت‌ها بدل می‌شوند، اعتماد عمومی فرو می‌ریزد و آزادی بیان در سکوت الگوریتم‌ها دفن می‌شود.

تصمیم با ماست. با قانون‌گذاری، شفافیت و فشار رسانه‌ها، می‌توان مسیر نخست را ممکن کرد. اما اگر سکوت کنیم، الگوریتم‌ها ما را خواهند بلعید.

عصر اقتصاد
دکمه بازگشت به بالا