کد خبر: 140204203171
اقتصادروزنامهصنعت و معدنفناوری اطلاعات و ارتباطاتآتش زیر خاکستر هوش مصنوعی؛

فاز جدید جنگ سرد در مدل‌های متن‌باز و بسته

مهرین نظری

در پشت پرده هیاهوی رسانه‌ای حول هوش مصنوعی، نبردی بی‌صدا اما عمیق میان دو جبهه جریان دارد. از یک سو غول‌هایی چون OpenAI، Google و Anthropic ایستاده‌اند که به مدل‌های بسته و کنترل‌شده اعتقاد دارند، و از سوی دیگر شرکت‌هایی مانند Meta، Mistral، Stability و Alibaba در حال توسعه مدل‌هایی هستند که دسترسی کامل به کد، معماری و داده‌ها را برای عموم فراهم می‌کنند.

این تقابل نه‌تنها سرنوشت آینده فناوری را رقم می‌زند، بلکه مرزهای مالکیت دانش، قدرت نرم و حاکمیت داده را نیز بازتعریف می‌کند.

چرا OpenAI از انتشار GPT-4 متن‌باز خودداری کرد؟

در مارس ۲۰۲۳ وقتی OpenAI از GPT-4 رونمایی کرد، برخلاف مدل‌های قبلی خبری از کد منبع، جزئیات معماری یا اطلاعات آموزش نبود. شرکت به‌صراحت اعلام کرد که «به‌دلیل نگرانی‌های رقابتی و امنیتی» این اطلاعات را منتشر نمی‌کند. با این تصمیم، فصل جدیدی در فضای AI آغاز شد؛ فصلی که دیگر با شعار democratization of AI همخوانی نداشت و بیشتر به انحصار و کنترل قدرت شبیه بود.

در همین زمان، شرکت‌هایی مانند Meta مدل‌های LLaMA را با دسترسی آزاد به پژوهشگران منتشر کردند و استارتاپ فرانسوی Mistral با مدل‌های قدرتمند و متن‌باز خود وارد میدان شد. مدل‌های Mistral 7B و Mixtral به‌سرعت در میان توسعه‌دهندگان محبوب شدند، چون به آن‌ها اجازه می‌دادند بدون پرداخت هزینه، روی سرورهای خود مدل را اجرا و حتی به دلخواه شخصی‌سازی کنند.

در این میان، مدل‌هایی مثل Claude از Anthropic و Gemini از Google نیز به‌صورت بسته ارائه شدند، که نشان می‌داد غول‌های فناوری ترجیح می‌دهند کنترل کامل روی نحوه استفاده، توزیع و درآمدزایی از هوش مصنوعی داشته باشند. منتقدان این رویکرد را بازگشت به عصر سلطه مایکروسافت در دهه ۹۰ می‌دانند، جایی که نرم‌افزارها مالک کاربر بودند نه بالعکس.

چرا چین و اروپا بیشتر روی متن‌باز سرمایه‌گذاری می‌کنند

درحالی‌که آمریکا با محوریت OpenAI به‌دنبال توسعه مدل‌های بسته و قابل‌کنترل است، کشورهای اروپایی و چین مسیر متفاوتی را برگزیده‌اند. شرکت علی‌بابا به‌تازگی نسل جدید مدل‌های Qwen را منتشر کرده که عملکرد آن در برخی شاخص‌ها از GPT-4 نیز بهتر است. نکته مهم‌تر آنکه این مدل‌ها متن‌باز هستند و در اختیار هر شرکت، سازمان یا حتی دولت قرار می‌گیرند.

اروپا نیز با پروژه‌هایی مثل OpenGPT-X و سرمایه‌گذاری‌های میلیاردی در پروژه‌های AI متن‌باز سعی دارد از وابستگی به آمریکا رها شود. اتحادیه اروپا به‌صراحت اعلام کرده که به‌دنبال استقلال الگوریتمی است، نه صرفاً استقلال اقتصادی. زیرا هر الگوریتم بسته‌ای که بر بستر آمریکایی اجرا می‌شود، پتانسیل مداخله سیاسی و فرهنگی را نیز به‌دنبال دارد.

در ایران نیز برخی شرکت‌های دانش‌بنیان تلاش‌هایی برای بازسازی یا fine-tune کردن مدل‌های خارجی دارند، اما به‌دلیل محدودیت در دسترسی به سخت‌افزار و داده با چالش جدی مواجه‌اند. با این‌حال مدل‌های متن‌باز این امکان را فراهم می‌کنند که حتی کشورهایی که تحریم هستند بتوانند بر پایه آن‌ها توسعه بومی داشته باشند، درحالی‌که مدل‌های بسته مانند GPT-4 از ابتدا دسترسی کشورهای تحریمی را مسدود می‌کنند.

آیا مدل‌های باز تهدید امنیتی‌اند یا نجات‌بخش اکوسیستم فناوری؟

یکی از استدلال‌های کلیدی شرکت‌های توسعه‌دهنده مدل‌های بسته این است که در صورت آزاد بودن مدل‌ها، بازیگران بد مانند تروریست‌ها یا مجرمان سایبری می‌توانند از آن سوءاستفاده کنند. به‌عنوان مثال، یکی از مدل‌های پایه‌ای Meta توسط برخی کاربران برای ساخت بدافزار یا طراحی حملات فیشینگ استفاده شد. این موضوع باعث شد در دولت آمریکا نگرانی‌هایی نسبت به متن‌باز بودن بیش‌ازحد مطرح شود.

اما در سوی دیگر ماجرا، توسعه‌دهندگان مستقل و پژوهشگران دانشگاهی می‌گویند اگر هوش مصنوعی فقط در اختیار چند شرکت آمریکایی باشد، خطر واقعی تمرکز قدرت و سانسور اطلاعات شکل می‌گیرد. آن‌ها می‌پرسند که آیا ترجیح می‌دهیم الگوریتم‌ها در انحصار شرکت‌هایی باشند که با سرمایه‌های انبوه سلیقه و سیاست خاص خود را بر خروجی مدل‌ها تحمیل می‌کنند؟

نمونه بارز این نگرانی‌ها، سانسور موضوعات سیاسی یا فرهنگی خاص در برخی مدل‌های بسته است که به‌طور خودکار از پاسخ‌گویی درباره مسائل حساس طفره می‌روند. درحالی‌که مدل‌های متن‌باز به دلیل قابلیت شخصی‌سازی می‌توانند بهینه‌سازی‌شده و پاسخ‌گوتر باشند.

از سوی دیگر، متن‌باز بودن به معنای شفافیت نیز هست. وقتی جامعه علمی بتواند داده‌های آموزشی، معماری و روش آموزش یک مدل را بررسی کند، هم سوگیری‌ها بهتر شناسایی می‌شود و هم امکان پیشرفت علمی بالاتر می‌رود. برعکس، در مدل‌های بسته این اطلاعات در انحصار چند شرکت باقی می‌ماند که اغلب هم انگیزه‌ای برای افشای آن‌ها ندارند.

هوش مصنوعی مسیر اینترنت را تکرار می‌کند؟

در دهه ۹۰ میلادی اینترنت با وعده جهانی شدن، دسترسی آزاد و دموکراتیک آغاز شد. اما امروز بسیاری از زیرساخت‌ها، الگوریتم‌ها و پلتفرم‌های اصلی آن در انحصار شرکت‌هایی مانند گوگل، آمازون و متا قرار دارد. حالا ترس این است که هوش مصنوعی نیز همان مسیر را برود. اگر فقط پنج شرکت آمریکایی مدل‌های قوی و بسته تولید کنند، همه توسعه‌ها به آن‌ها وابسته خواهد بود.

در این میان، مدل‌های متن‌باز راهی برای فرار از این انحصار هستند. حتی اگر در حال حاضر از نظر عملکردی به پای GPT-4 نرسیده باشند، رشد سریع آن‌ها نشان می‌دهد آینده‌ای با انتخاب بیشتر و وابستگی کمتر ممکن است. مدل‌هایی مثل Mistral 7B، Qwen، LLaMA 3 و Falcon توانسته‌اند در بنچمارک‌های مختلف رقابت قابل‌توجهی با مدل‌های بسته داشته باشند، آن هم بدون میلیاردها دلار سرمایه‌گذاری انحصاری.

این رقابت نه‌تنها تکنولوژی را پیش می‌برد بلکه قدرت چانه‌زنی توسعه‌دهندگان، استارتاپ‌ها و حتی دولت‌ها را افزایش می‌دهد. اگر تنها گزینه موجود GPT-4 باشد، نه‌تنها هزینه‌ها بالاتر خواهد رفت بلکه وابستگی فناوری نیز به‌صورت ساختاری نهادینه می‌شود. اما اگر چند مدل قدرتمند متن‌باز وجود داشته باشند، انتخاب و تنوع حفظ می‌شود و زیست‌بوم نوآوری پویا باقی می‌ماند.

پایان باز برای یک جنگ سرد دیجیتال

هیچ‌کس نمی‌داند این جنگ مدل‌ها به کجا خواهد انجامید. شاید روزی برسد که OpenAI هم دوباره به‌سوی انتشار متن‌باز بازگردد یا مدل‌های کنونی متن‌باز با نسخه‌های تجاری جایگزین شوند. اما چیزی که قطعی است این است که آینده هوش مصنوعی دیگر فقط با معیارهای فنی یا سرمایه‌گذاری مالی تعیین نمی‌شود بلکه نبردی بر سر ارزش‌ها، مالکیت دانش و نحوه توزیع قدرت در عصر دیجیتال در جریان است.

مسئله فقط این نیست که کدام مدل سریع‌تر یا دقیق‌تر است بلکه این است که چه کسی می‌تواند آن را کنترل کند. و درست همین‌جا، جایی است که علم به سیاست گره می‌خورد و آینده AI را نه در آزمایشگاه‌ها بلکه در میدان نبرد ایدئولوژی‌ها رقم می‌زند.

عصر اقتصاد
دکمه بازگشت به بالا