دانش و فناوری

چگونه شکست OpenAI می تواند متا و جنبش “هوش مصنوعی باز” را تقویت کند

چهار روز طوفانی برای OpenAI، پوستر مولد هوش مصنوعی پشت سرگذاشته ChatGPT بود.

ظاهراً از ناکجاآباد، هیئت مدیره OpenAI مدیر عامل و یکی از بنیانگذاران سام آلتمن را برکنار کرد و رئیس‌جمهور و یکی از بنیانگذاران گرگ براکمن را که متعاقباً استعفا داد، هموار کرد و راه را برای شورش کارکنانی که اصرار داشتند بنیان‌گذاران پس از عجله بازگردانده شوند، هموار کرد. تا آن زمان، مایکروسافت قبلاً آلتمن و براکمن را برای سرپرستی یک واحد هوش مصنوعی داخلی جدید استخدام کرده بود، اگرچه از آنجایی که همه چیز مشخص شد هنوز هیچ چیزی امضا نشده بود، با شایعات حاکی از آن است که رهبران برکنار شده ممکن است در نهایت به OpenAI بازگردند – تا حدی، در کمترین.

وضعیت سیال است و هر تعداد از نتایج بالقوه همچنان روی میز باقی می ماند. اما کل خرابی نیروهایی را که انقلاب رو به رشد هوش مصنوعی را کنترل می‌کنند مورد توجه قرار داده است، و بسیاری را به این سوال سوق داده است که اگر همه چیز را روی یک پخش‌کننده اختصاصی متمرکز انجام دهید، چه اتفاقی می‌افتد، و اگر همه چیز از بین برود، چه اتفاقی می‌افتد؟

مارک سورمن، رئیس و مدیر اجرایی، “درام OpenAI / مایکروسافت بر یکی از خطرات بزرگ کوتاه مدت هوش مصنوعی تأکید می کند – این که موج بعدی فناوری توسط همان مجموعه کوچکی از بازیکنان کنترل می شود که آخرین عصر اینترنت را شکل داده اند.” مدیر بنیاد موزیلا، به TechCrunch گفت. «اگر GPT-X مسئولانه منبع باز بود، ممکن بود شانس اجتناب از این موضوع را داشته باشیم و به محققان و استارت آپ ها فرصتی برای ایمن تر، مفیدتر و قابل اعتمادتر کردن مردم در همه جا بدهد.»

باز و بسته

در نامه سرگشاده‌ای که چند هفته پیش توسط موزیلا منتشر شد، یان لیکون، دانشمند ارشد هوش مصنوعی متا، به 70 امضاکننده دیگر پیوست و خواستار باز بودن بیشتر در توسعه هوش مصنوعی شد، اگرچه این نامه از آن زمان تاکنون بیش از 1700 امضا جمع کرده است. این پس‌زمینه از شرکت‌های بزرگ فناوری مانند OpenAI و DeepMind گوگل ناشی می‌شود که خواستار مقررات بیشتر شدند و در مورد عواقب فاجعه‌بار در صورت برخورد اهرم‌های هوش مصنوعی با دستان اشتباه هشدار دادند – به عبارت دیگر، آنها استدلال کردند که هوش مصنوعی اختصاصی از منبع باز ایمن‌تر است.

LeCun و همکاران مخالفند.

در نامه اذعان می‌کند: «بله، مدل‌های آشکاراً با خطرات و آسیب‌پذیری‌هایی همراه هستند – مدل‌های هوش مصنوعی می‌توانند توسط عوامل مخرب مورد سوء استفاده قرار گیرند یا توسط توسعه‌دهندگان فاقد تجهیزات به کار گرفته شوند». با این حال، بارها و بارها دیده‌ایم که همین امر در مورد فناوری‌های اختصاصی نیز صادق است – و افزایش دسترسی عمومی و بررسی دقیق، فناوری را ایمن‌تر می‌کند، نه خطرناک‌تر. این ایده که کنترل دقیق و اختصاصی مدل‌های اساسی هوش مصنوعی تنها راه محافظت از ما در برابر آسیب‌های اجتماعی است، در بهترین حالت ساده‌لوحانه و در بدترین حالت خطرناک است.

در سطح شخصی، LeCun این کار را کرده است متهم بازیگران مشهور هوش مصنوعی که تلاش می‌کنند با لابی کردن علیه تحقیق و توسعه هوش مصنوعی، «تسخیر نظارتی صنعت هوش مصنوعی» را تضمین کنند. و در سطح شرکت، متا تمام تلاش خود را برای تشویق همکاری و «باز بودن» انجام می‌دهد و اخیراً با Hugging Face برای راه‌اندازی یک شتاب‌دهنده استارت‌آپ جدید که برای تشویق به پذیرش مدل‌های AI منبع باز طراحی شده است، شریک شده است.

اما OpenAI – حداقل تا هفته گذشته – هنوز همان هوش مصنوعی عزیزی بود که همه می خواستند با آن برقصند. تعداد بی‌شماری استارت‌آپ و بزرگ‌آپ کسب‌وکارهایی را بر روی مدل‌های زبان بزرگ (LLM) اختصاصی OpenAI (GPT-X) ایجاد کرده‌اند، و در طول آخر هفته صدها مشتری OpenAI بنا به گزارش‌ها شروع به تماس با رقبای OpenAI از جمله Anthropic، Google و Cohere کردند، زیرا نگران این بودند که کسب‌وکار خودشان ممکن است ممکن باشد. اگر OpenAI یک شبه از بین برود تحت تأثیر قرار می گیرد.

بیش از حد وابسته

وحشت محسوس بوده است. اما نمونه‌هایی از جاهای دیگر در حوزه فناوری وجود دارد، شاید مهم‌ترین آن صنعت رایانش ابری است که به دلیل روشی که شرکت‌ها را در سیلوهای متمرکز و گرداب مانند حبس می‌کرد، مشهور شد.

لوئیس سیز، استاد علوم کامپیوتر دانشگاه واشنگتن و مدیر عامل شرکت OctoML در بیانیه ای ایمیلی به TechCrunch گفت: «بخشی از جنون در مورد آینده OpenAI به دلیل تکیه بیش از حد استارتاپ ها به مدل های اختصاصی خود است. “این خطرناک است که همه تراشه های خود را در یک سبد قرار دهید – ما این را در روزهای اولیه ابری دیدیم که منجر به تغییر شرکت ها به محیط های چند ابری و ترکیبی شد.

در ظاهر، مایکروسافت در حال حاضر به عنوان بزرگترین برنده در میان آشفتگی OpenAI به نظر می رسد، زیرا ظاهراً از قبل به دنبال کاهش اتکای خود به OpenAI بود، حتی اگر زمانی یکی از سهامداران اصلی خود باقی بماند. اما متا مادر فیس‌بوک نیز می‌تواند از مزایای آن بهره‌مند شود، زیرا کسب‌وکارها استراتژی‌ها یا مدل‌های چندوجهی را دنبال می‌کنند که اخلاق «بازتر» تعبیه شده است.

Ceze افزود: “امروزه منبع باز مدل های گسترده ای را برای شرکت ها ارائه می دهد تا اساساً تنوع ایجاد کنند.” با انجام این کار، این استارتاپ‌ها می‌توانند به سرعت ریسک را تغییر دهند و به حداقل برسانند. همچنین یک مزیت بزرگ وجود دارد – بسیاری از این مدل‌ها از نظر قیمت و سرعت عملکرد بهتری نسبت به OpenAI دارند.

یک یادداشت داخلی فاش شده از گوگل در اوایل سال جاری به نظر می‌رسید که این نگرانی را بیان می‌کرد که با وجود پیشرفت‌های عظیمی که توسط مدل‌های LLM اختصاصی مانند OpenAI انجام شده است، هوش مصنوعی منبع باز در نهایت بر همه آنها برتری خواهد داشت. در این سند آمده است: «ما هیچ خندقی نداریم و OpenAI هم ندارد.

یادداشت مورد بحث در اشاره به یک مدل زبان پایه بود که ابتدا در ماه مارس از متا فاش شد و در مدت زمان کوتاهی صدای خوبی به دست آورد. این امر قدرت و مقیاس پذیری یک رویکرد بازتر برای توسعه هوش مصنوعی را برجسته می کند – همکاری و آزمایش را در سطحی امکان پذیر می کند که تکرار آن با مدل های بسته چندان آسان نیست.

در اینجا شایان ذکر است که علیرغم ادعاهای متا، خانواده LLM با نام تجاری Llama آن‌قدر که می‌خواهد مردم باور کنند «منبع باز» نیستند. بله، آنها هم برای موارد تحقیقاتی و هم برای موارد تجاری در دسترس هستند، اما توسعه دهندگان را از استفاده از Llama برای آموزش مدل های دیگر منع می کند، در حالی که توسعه دهندگان برنامه با بیش از 700 میلیون کاربر ماهانه باید مجوز خاصی را از متا درخواست کنند که ممکن است بر اساس آن اعطا کند. “به صلاحدید” – اساساً هر کسی به جز برادران فناوری بزرگ متا می تواند از Llama استفاده کند بدون اجازه.

مطمئناً، متا تنها شرکتی نیست که رویکرد «باز» خود را برای توسعه هوش مصنوعی به رخ می‌کشد – به‌ویژه شرکت‌هایی مانند Hugging Face، Mistral AI و 01.AI که همگی مبالغ قابل توجهی را در ارزش‌گذاری‌های بالا با اهداف مشابه جمع‌آوری کرده‌اند. اما متا به عنوان یک غول‌پیکر 900 میلیارد دلاری با سابقه طولانی در خواستگاری با توسعه‌دهندگان از طریق تلاش‌های منبع باز، شاید بهترین موقعیت را داشته باشد تا از آشفتگی‌هایی که OpenAI برای خود ایجاد کرده است، استفاده کند. به نظر می رسد تصمیم آن برای پیگیری “باز بودن” بر “بسته بودن” در حال حاضر به خوبی اثبات شده است، و صرف نظر از اینکه لاما هست یا نیست. واقعا منبع باز، احتمالاً برای اکثر مردم “به اندازه کافی باز” است.

هنوز خیلی زود است که ادعای قطعی در مورد تأثیرات OpenAI بر توسعه و جذب LLM در آینده داشته باشیم. آلتمن و براکمن بدون شک دستان ثابتی برای یک استارتاپ تجاری هوش مصنوعی هستند و حتی ممکن است به سرپرست OpenAI بازگردند. اما برخی ممکن است استدلال کنند که ناسالم است که این همه تمرکز روی تعداد انگشت شماری از افراد باشد – و این نشان دهنده این است که خروج آنها چنین ویرانی گسترده ای ایجاد کرده است.

منبع techcrunch
دکمه بازگشت به بالا