فاز جدید جنگ سرد در مدلهای متنباز و بسته

مهرین نظری
در پشت پرده هیاهوی رسانهای حول هوش مصنوعی، نبردی بیصدا اما عمیق میان دو جبهه جریان دارد. از یک سو غولهایی چون OpenAI، Google و Anthropic ایستادهاند که به مدلهای بسته و کنترلشده اعتقاد دارند، و از سوی دیگر شرکتهایی مانند Meta، Mistral، Stability و Alibaba در حال توسعه مدلهایی هستند که دسترسی کامل به کد، معماری و دادهها را برای عموم فراهم میکنند.
این تقابل نهتنها سرنوشت آینده فناوری را رقم میزند، بلکه مرزهای مالکیت دانش، قدرت نرم و حاکمیت داده را نیز بازتعریف میکند.
چرا OpenAI از انتشار GPT-4 متنباز خودداری کرد؟
در مارس ۲۰۲۳ وقتی OpenAI از GPT-4 رونمایی کرد، برخلاف مدلهای قبلی خبری از کد منبع، جزئیات معماری یا اطلاعات آموزش نبود. شرکت بهصراحت اعلام کرد که «بهدلیل نگرانیهای رقابتی و امنیتی» این اطلاعات را منتشر نمیکند. با این تصمیم، فصل جدیدی در فضای AI آغاز شد؛ فصلی که دیگر با شعار democratization of AI همخوانی نداشت و بیشتر به انحصار و کنترل قدرت شبیه بود.
در همین زمان، شرکتهایی مانند Meta مدلهای LLaMA را با دسترسی آزاد به پژوهشگران منتشر کردند و استارتاپ فرانسوی Mistral با مدلهای قدرتمند و متنباز خود وارد میدان شد. مدلهای Mistral 7B و Mixtral بهسرعت در میان توسعهدهندگان محبوب شدند، چون به آنها اجازه میدادند بدون پرداخت هزینه، روی سرورهای خود مدل را اجرا و حتی به دلخواه شخصیسازی کنند.
در این میان، مدلهایی مثل Claude از Anthropic و Gemini از Google نیز بهصورت بسته ارائه شدند، که نشان میداد غولهای فناوری ترجیح میدهند کنترل کامل روی نحوه استفاده، توزیع و درآمدزایی از هوش مصنوعی داشته باشند. منتقدان این رویکرد را بازگشت به عصر سلطه مایکروسافت در دهه ۹۰ میدانند، جایی که نرمافزارها مالک کاربر بودند نه بالعکس.
چرا چین و اروپا بیشتر روی متنباز سرمایهگذاری میکنند
درحالیکه آمریکا با محوریت OpenAI بهدنبال توسعه مدلهای بسته و قابلکنترل است، کشورهای اروپایی و چین مسیر متفاوتی را برگزیدهاند. شرکت علیبابا بهتازگی نسل جدید مدلهای Qwen را منتشر کرده که عملکرد آن در برخی شاخصها از GPT-4 نیز بهتر است. نکته مهمتر آنکه این مدلها متنباز هستند و در اختیار هر شرکت، سازمان یا حتی دولت قرار میگیرند.
اروپا نیز با پروژههایی مثل OpenGPT-X و سرمایهگذاریهای میلیاردی در پروژههای AI متنباز سعی دارد از وابستگی به آمریکا رها شود. اتحادیه اروپا بهصراحت اعلام کرده که بهدنبال استقلال الگوریتمی است، نه صرفاً استقلال اقتصادی. زیرا هر الگوریتم بستهای که بر بستر آمریکایی اجرا میشود، پتانسیل مداخله سیاسی و فرهنگی را نیز بهدنبال دارد.
در ایران نیز برخی شرکتهای دانشبنیان تلاشهایی برای بازسازی یا fine-tune کردن مدلهای خارجی دارند، اما بهدلیل محدودیت در دسترسی به سختافزار و داده با چالش جدی مواجهاند. با اینحال مدلهای متنباز این امکان را فراهم میکنند که حتی کشورهایی که تحریم هستند بتوانند بر پایه آنها توسعه بومی داشته باشند، درحالیکه مدلهای بسته مانند GPT-4 از ابتدا دسترسی کشورهای تحریمی را مسدود میکنند.
آیا مدلهای باز تهدید امنیتیاند یا نجاتبخش اکوسیستم فناوری؟
یکی از استدلالهای کلیدی شرکتهای توسعهدهنده مدلهای بسته این است که در صورت آزاد بودن مدلها، بازیگران بد مانند تروریستها یا مجرمان سایبری میتوانند از آن سوءاستفاده کنند. بهعنوان مثال، یکی از مدلهای پایهای Meta توسط برخی کاربران برای ساخت بدافزار یا طراحی حملات فیشینگ استفاده شد. این موضوع باعث شد در دولت آمریکا نگرانیهایی نسبت به متنباز بودن بیشازحد مطرح شود.
اما در سوی دیگر ماجرا، توسعهدهندگان مستقل و پژوهشگران دانشگاهی میگویند اگر هوش مصنوعی فقط در اختیار چند شرکت آمریکایی باشد، خطر واقعی تمرکز قدرت و سانسور اطلاعات شکل میگیرد. آنها میپرسند که آیا ترجیح میدهیم الگوریتمها در انحصار شرکتهایی باشند که با سرمایههای انبوه سلیقه و سیاست خاص خود را بر خروجی مدلها تحمیل میکنند؟
نمونه بارز این نگرانیها، سانسور موضوعات سیاسی یا فرهنگی خاص در برخی مدلهای بسته است که بهطور خودکار از پاسخگویی درباره مسائل حساس طفره میروند. درحالیکه مدلهای متنباز به دلیل قابلیت شخصیسازی میتوانند بهینهسازیشده و پاسخگوتر باشند.
از سوی دیگر، متنباز بودن به معنای شفافیت نیز هست. وقتی جامعه علمی بتواند دادههای آموزشی، معماری و روش آموزش یک مدل را بررسی کند، هم سوگیریها بهتر شناسایی میشود و هم امکان پیشرفت علمی بالاتر میرود. برعکس، در مدلهای بسته این اطلاعات در انحصار چند شرکت باقی میماند که اغلب هم انگیزهای برای افشای آنها ندارند.
هوش مصنوعی مسیر اینترنت را تکرار میکند؟
در دهه ۹۰ میلادی اینترنت با وعده جهانی شدن، دسترسی آزاد و دموکراتیک آغاز شد. اما امروز بسیاری از زیرساختها، الگوریتمها و پلتفرمهای اصلی آن در انحصار شرکتهایی مانند گوگل، آمازون و متا قرار دارد. حالا ترس این است که هوش مصنوعی نیز همان مسیر را برود. اگر فقط پنج شرکت آمریکایی مدلهای قوی و بسته تولید کنند، همه توسعهها به آنها وابسته خواهد بود.
در این میان، مدلهای متنباز راهی برای فرار از این انحصار هستند. حتی اگر در حال حاضر از نظر عملکردی به پای GPT-4 نرسیده باشند، رشد سریع آنها نشان میدهد آیندهای با انتخاب بیشتر و وابستگی کمتر ممکن است. مدلهایی مثل Mistral 7B، Qwen، LLaMA 3 و Falcon توانستهاند در بنچمارکهای مختلف رقابت قابلتوجهی با مدلهای بسته داشته باشند، آن هم بدون میلیاردها دلار سرمایهگذاری انحصاری.
این رقابت نهتنها تکنولوژی را پیش میبرد بلکه قدرت چانهزنی توسعهدهندگان، استارتاپها و حتی دولتها را افزایش میدهد. اگر تنها گزینه موجود GPT-4 باشد، نهتنها هزینهها بالاتر خواهد رفت بلکه وابستگی فناوری نیز بهصورت ساختاری نهادینه میشود. اما اگر چند مدل قدرتمند متنباز وجود داشته باشند، انتخاب و تنوع حفظ میشود و زیستبوم نوآوری پویا باقی میماند.
پایان باز برای یک جنگ سرد دیجیتال
هیچکس نمیداند این جنگ مدلها به کجا خواهد انجامید. شاید روزی برسد که OpenAI هم دوباره بهسوی انتشار متنباز بازگردد یا مدلهای کنونی متنباز با نسخههای تجاری جایگزین شوند. اما چیزی که قطعی است این است که آینده هوش مصنوعی دیگر فقط با معیارهای فنی یا سرمایهگذاری مالی تعیین نمیشود بلکه نبردی بر سر ارزشها، مالکیت دانش و نحوه توزیع قدرت در عصر دیجیتال در جریان است.
مسئله فقط این نیست که کدام مدل سریعتر یا دقیقتر است بلکه این است که چه کسی میتواند آن را کنترل کند. و درست همینجا، جایی است که علم به سیاست گره میخورد و آینده AI را نه در آزمایشگاهها بلکه در میدان نبرد ایدئولوژیها رقم میزند.