چگونه شکست OpenAI می تواند متا و جنبش “هوش مصنوعی باز” را تقویت کند

چهار روز طوفانی برای OpenAI، پوستر مولد هوش مصنوعی پشت سرگذاشته ChatGPT بود.
ظاهراً از ناکجاآباد، هیئت مدیره OpenAI مدیر عامل و یکی از بنیانگذاران سام آلتمن را برکنار کرد و رئیسجمهور و یکی از بنیانگذاران گرگ براکمن را که متعاقباً استعفا داد، هموار کرد و راه را برای شورش کارکنانی که اصرار داشتند بنیانگذاران پس از عجله بازگردانده شوند، هموار کرد. تا آن زمان، مایکروسافت قبلاً آلتمن و براکمن را برای سرپرستی یک واحد هوش مصنوعی داخلی جدید استخدام کرده بود، اگرچه از آنجایی که همه چیز مشخص شد هنوز هیچ چیزی امضا نشده بود، با شایعات حاکی از آن است که رهبران برکنار شده ممکن است در نهایت به OpenAI بازگردند – تا حدی، در کمترین.
وضعیت سیال است و هر تعداد از نتایج بالقوه همچنان روی میز باقی می ماند. اما کل خرابی نیروهایی را که انقلاب رو به رشد هوش مصنوعی را کنترل میکنند مورد توجه قرار داده است، و بسیاری را به این سوال سوق داده است که اگر همه چیز را روی یک پخشکننده اختصاصی متمرکز انجام دهید، چه اتفاقی میافتد، و اگر همه چیز از بین برود، چه اتفاقی میافتد؟
مارک سورمن، رئیس و مدیر اجرایی، “درام OpenAI / مایکروسافت بر یکی از خطرات بزرگ کوتاه مدت هوش مصنوعی تأکید می کند – این که موج بعدی فناوری توسط همان مجموعه کوچکی از بازیکنان کنترل می شود که آخرین عصر اینترنت را شکل داده اند.” مدیر بنیاد موزیلا، به TechCrunch گفت. «اگر GPT-X مسئولانه منبع باز بود، ممکن بود شانس اجتناب از این موضوع را داشته باشیم و به محققان و استارت آپ ها فرصتی برای ایمن تر، مفیدتر و قابل اعتمادتر کردن مردم در همه جا بدهد.»
باز و بسته
در نامه سرگشادهای که چند هفته پیش توسط موزیلا منتشر شد، یان لیکون، دانشمند ارشد هوش مصنوعی متا، به 70 امضاکننده دیگر پیوست و خواستار باز بودن بیشتر در توسعه هوش مصنوعی شد، اگرچه این نامه از آن زمان تاکنون بیش از 1700 امضا جمع کرده است. این پسزمینه از شرکتهای بزرگ فناوری مانند OpenAI و DeepMind گوگل ناشی میشود که خواستار مقررات بیشتر شدند و در مورد عواقب فاجعهبار در صورت برخورد اهرمهای هوش مصنوعی با دستان اشتباه هشدار دادند – به عبارت دیگر، آنها استدلال کردند که هوش مصنوعی اختصاصی از منبع باز ایمنتر است.
LeCun و همکاران مخالفند.
در نامه اذعان میکند: «بله، مدلهای آشکاراً با خطرات و آسیبپذیریهایی همراه هستند – مدلهای هوش مصنوعی میتوانند توسط عوامل مخرب مورد سوء استفاده قرار گیرند یا توسط توسعهدهندگان فاقد تجهیزات به کار گرفته شوند». با این حال، بارها و بارها دیدهایم که همین امر در مورد فناوریهای اختصاصی نیز صادق است – و افزایش دسترسی عمومی و بررسی دقیق، فناوری را ایمنتر میکند، نه خطرناکتر. این ایده که کنترل دقیق و اختصاصی مدلهای اساسی هوش مصنوعی تنها راه محافظت از ما در برابر آسیبهای اجتماعی است، در بهترین حالت سادهلوحانه و در بدترین حالت خطرناک است.
در سطح شخصی، LeCun این کار را کرده است متهم بازیگران مشهور هوش مصنوعی که تلاش میکنند با لابی کردن علیه تحقیق و توسعه هوش مصنوعی، «تسخیر نظارتی صنعت هوش مصنوعی» را تضمین کنند. و در سطح شرکت، متا تمام تلاش خود را برای تشویق همکاری و «باز بودن» انجام میدهد و اخیراً با Hugging Face برای راهاندازی یک شتابدهنده استارتآپ جدید که برای تشویق به پذیرش مدلهای AI منبع باز طراحی شده است، شریک شده است.
اما OpenAI – حداقل تا هفته گذشته – هنوز همان هوش مصنوعی عزیزی بود که همه می خواستند با آن برقصند. تعداد بیشماری استارتآپ و بزرگآپ کسبوکارهایی را بر روی مدلهای زبان بزرگ (LLM) اختصاصی OpenAI (GPT-X) ایجاد کردهاند، و در طول آخر هفته صدها مشتری OpenAI بنا به گزارشها شروع به تماس با رقبای OpenAI از جمله Anthropic، Google و Cohere کردند، زیرا نگران این بودند که کسبوکار خودشان ممکن است ممکن باشد. اگر OpenAI یک شبه از بین برود تحت تأثیر قرار می گیرد.
بیش از حد وابسته
وحشت محسوس بوده است. اما نمونههایی از جاهای دیگر در حوزه فناوری وجود دارد، شاید مهمترین آن صنعت رایانش ابری است که به دلیل روشی که شرکتها را در سیلوهای متمرکز و گرداب مانند حبس میکرد، مشهور شد.
لوئیس سیز، استاد علوم کامپیوتر دانشگاه واشنگتن و مدیر عامل شرکت OctoML در بیانیه ای ایمیلی به TechCrunch گفت: «بخشی از جنون در مورد آینده OpenAI به دلیل تکیه بیش از حد استارتاپ ها به مدل های اختصاصی خود است. “این خطرناک است که همه تراشه های خود را در یک سبد قرار دهید – ما این را در روزهای اولیه ابری دیدیم که منجر به تغییر شرکت ها به محیط های چند ابری و ترکیبی شد.
در ظاهر، مایکروسافت در حال حاضر به عنوان بزرگترین برنده در میان آشفتگی OpenAI به نظر می رسد، زیرا ظاهراً از قبل به دنبال کاهش اتکای خود به OpenAI بود، حتی اگر زمانی یکی از سهامداران اصلی خود باقی بماند. اما متا مادر فیسبوک نیز میتواند از مزایای آن بهرهمند شود، زیرا کسبوکارها استراتژیها یا مدلهای چندوجهی را دنبال میکنند که اخلاق «بازتر» تعبیه شده است.
Ceze افزود: “امروزه منبع باز مدل های گسترده ای را برای شرکت ها ارائه می دهد تا اساساً تنوع ایجاد کنند.” با انجام این کار، این استارتاپها میتوانند به سرعت ریسک را تغییر دهند و به حداقل برسانند. همچنین یک مزیت بزرگ وجود دارد – بسیاری از این مدلها از نظر قیمت و سرعت عملکرد بهتری نسبت به OpenAI دارند.
یک یادداشت داخلی فاش شده از گوگل در اوایل سال جاری به نظر میرسید که این نگرانی را بیان میکرد که با وجود پیشرفتهای عظیمی که توسط مدلهای LLM اختصاصی مانند OpenAI انجام شده است، هوش مصنوعی منبع باز در نهایت بر همه آنها برتری خواهد داشت. در این سند آمده است: «ما هیچ خندقی نداریم و OpenAI هم ندارد.
یادداشت مورد بحث در اشاره به یک مدل زبان پایه بود که ابتدا در ماه مارس از متا فاش شد و در مدت زمان کوتاهی صدای خوبی به دست آورد. این امر قدرت و مقیاس پذیری یک رویکرد بازتر برای توسعه هوش مصنوعی را برجسته می کند – همکاری و آزمایش را در سطحی امکان پذیر می کند که تکرار آن با مدل های بسته چندان آسان نیست.
در اینجا شایان ذکر است که علیرغم ادعاهای متا، خانواده LLM با نام تجاری Llama آنقدر که میخواهد مردم باور کنند «منبع باز» نیستند. بله، آنها هم برای موارد تحقیقاتی و هم برای موارد تجاری در دسترس هستند، اما توسعه دهندگان را از استفاده از Llama برای آموزش مدل های دیگر منع می کند، در حالی که توسعه دهندگان برنامه با بیش از 700 میلیون کاربر ماهانه باید مجوز خاصی را از متا درخواست کنند که ممکن است بر اساس آن اعطا کند. “به صلاحدید” – اساساً هر کسی به جز برادران فناوری بزرگ متا می تواند از Llama استفاده کند بدون اجازه.
مطمئناً، متا تنها شرکتی نیست که رویکرد «باز» خود را برای توسعه هوش مصنوعی به رخ میکشد – بهویژه شرکتهایی مانند Hugging Face، Mistral AI و 01.AI که همگی مبالغ قابل توجهی را در ارزشگذاریهای بالا با اهداف مشابه جمعآوری کردهاند. اما متا به عنوان یک غولپیکر 900 میلیارد دلاری با سابقه طولانی در خواستگاری با توسعهدهندگان از طریق تلاشهای منبع باز، شاید بهترین موقعیت را داشته باشد تا از آشفتگیهایی که OpenAI برای خود ایجاد کرده است، استفاده کند. به نظر می رسد تصمیم آن برای پیگیری “باز بودن” بر “بسته بودن” در حال حاضر به خوبی اثبات شده است، و صرف نظر از اینکه لاما هست یا نیست. واقعا منبع باز، احتمالاً برای اکثر مردم “به اندازه کافی باز” است.
هنوز خیلی زود است که ادعای قطعی در مورد تأثیرات OpenAI بر توسعه و جذب LLM در آینده داشته باشیم. آلتمن و براکمن بدون شک دستان ثابتی برای یک استارتاپ تجاری هوش مصنوعی هستند و حتی ممکن است به سرپرست OpenAI بازگردند. اما برخی ممکن است استدلال کنند که ناسالم است که این همه تمرکز روی تعداد انگشت شماری از افراد باشد – و این نشان دهنده این است که خروج آنها چنین ویرانی گسترده ای ایجاد کرده است.