تکنولوژی

OpenAI در حال طراحی تراشه هوش مصنوعی سفارشی خود است

OpenAI در حال طراحی تراشه هوش مصنوعی سفارشی خود است

OpenAI با توسعه‌ی اولین نسل از سیلیکون هوش مصنوعی خود، قصد دارد وابستگی‌اش به انویدیا را کاهش دهد و رویکرد جدیدی در تامین تراشه اتخاذ کند.

منابع به رویترز گفتند که سازنده ChatGPT در حال نهایی کردن طراحی اولین تراشه داخلی خود طی چند ماه آینده است و قصد دارد آن را برای ساخت به TSMC بفرستد. این فرآیند “tape out” نامیده می‌شود.

OpenAI  و TSMC از هرگونه اظهار نظری خودداری کردند.

این به‌روزرسانی نشان می‌دهد که OpenAI در مسیر رسیدن به هدف بلندپروازانه‌اش برای تولید انبوه در TSMC تا سال ۲۰۲۶ است. هزینه یک “tape-out” معمول ده‌ها میلیون دلار است و ساخت یک تراشه کامل تقریباً شش ماه زمان می‌برد، مگر آنکه OpenAI  هزینه‌ی بیشتری برای تولید سریع‌تر پرداخت کند. هیچ تضمینی نیست که تراشه در اولین تلاش tape-out به درستی کار کند و در صورت شکست، شرکت باید مشکل را پیدا کرده و مرحله‌ی “tape-out” را دوباره انجام دهد.

منابع می‌گویند که در داخل OpenAI ، تراشه متمرکز بر آموزش به عنوان یک ابزار استراتژیک برای افزایش قدرت چانه‌زنی OpenAI در مذاکرات با سایر تامین‌کنندگان تراشه در نظر گرفته می‌شود. مهندسان OpenAI پس از ساخت تراشه اولیه، قصد دارند در هر نسخه جدید، پردازنده‌هایی با قابلیت‌های بیشتر و پیشرفته‌تر توسعه دهند.

در صورت موفقیت اولین “tape-out” ، سازنده ChatGPT می‌تواند اولین تراشه هوش مصنوعی داخلی خود را به تولید انبوه برساند و حتی شاید اواخر امسال یک گزینه جایگزین برای تراشه‌های Nvidia را آزمایش کند. این اقدام OpenAI برای ارسال طرح خود به TSMC در سال جاری نشان از پیشرفت چشمگیر این استارت‌آپ در طراحی اولیه‌ی تراشه خود دارد، چرا که چنین فرآیندی برای دیگر شرکت‌های طراح تراشه ممکن است سال‌ها به طول انجامد.

شرکت‌های بزرگ فناوری مانند مایکروسافت و متا، علی‌رغم سال‌ها تلاش، در تولید تراشه‌های رضایت‌بخش با مشکل مواجه بوده‌اند. همچنین، رکود اخیر بازار که توسط استارت‌آپ هوش مصنوعی چینی DeepSeek ایجاد شد، این سؤال را مطرح کرده است که آیا در آینده برای توسعه مدل‌های قدرتمند، تراشه‌های کمتری مورد نیاز خواهد بود یا خیر.

تراشه توسط تیم داخلی OpenAI به رهبری ریچارد هو در حال طراحی است. این تیم در ماه‌های اخیر دو برابر شده و اکنون ۴۰ عضو دارد. همکاری بین این تیم و Broadcom در حال انجام است. ریچارد هو بیش از یک سال پیش از گوگل (Alphabet) به OpenAI ملحق شد و در آنجا در رهبری برنامه تراشه هوش مصنوعی سفارشی گوگل نقش داشت. خبر همکاری OpenAI و Broadcom برای اولین بار سال گذشته توسط رویترز منتشر شد.

تیم ریچارد هو در مقایسه با پروژه‌های عظیم در شرکت‌های بزرگ فناوری مانند گوگل یا آمازون، تیمی کوچکتر است. به گفته‌ی منابعی که از بودجه‌های طراحی تراشه اطلاع دارند، طراحی یک تراشه‌ی جدید برای یک پروژه‌ی بلندپروازانه و در مقیاس بزرگ، برای هر نسخه از آن می‌تواند تا ۵۰۰ میلیون دلار هزینه در بر داشته باشد. هزینه‌های مربوط به توسعه‌ی نرم‌افزار و تجهیزات جانبی مورد نیاز برای تراشه، می‌تواند این مبلغ را تا دو برابر افزایش دهد.

شرکت‌های سازنده مدل‌های هوش مصنوعی مولد، از جمله OpenAI ، گوگل و متا، ثابت کرده‌اند که هرچه تعداد تراشه‌های مورد استفاده در مراکز داده بیشتر باشد، مدل‌ها نیز هوشمندتر می‌شوند. به همین دلیل، این شرکت‌ها تقاضای بسیار زیادی برای این تراشه‌ها دارند.

متا اعلام کرده که قصد دارد ۶۰ میلیارد دلار در زیرساخت هوش مصنوعی در سال آینده هزینه کند و مایکروسافت نیز گفته که ۸۰ میلیارد دلار در سال ۲۰۲۵ هزینه خواهد کرد. در حال حاضر، تراشه‌های انویدیا از همه محبوب‌ترند و تقریباً ۸۰ درصد سهم بازار را در اختیار دارند. خود OpenAI نیز در برنامه زیرساختی ۵۰۰ میلیارد دلاری “استارگیت” که توسط رئیس جمهور ایالات متحده، دونالد ترامپ، ماه گذشته اعلام شد، مشارکت دارد.

اما افزایش هزینه‌ها و وابستگی به یک تامین‌کننده واحد، مشتریان بزرگی مانند مایکروسافت، متا و اکنون OpenAI را بر آن داشته تا به دنبال جایگزین‌های داخلی یا خارجی برای تراشه‌های انویدیا باشند.

تراشه هوش مصنوعی داخلی OpenAI، در حالی که قادر به آموزش و اجرای مدل‌های هوش مصنوعی است، در ابتدا در مقیاس محدود و عمدتاً برای اجرای مدل‌های هوش مصنوعی مستقر خواهد شد، منابع گفتند. این تراشه نقش محدودی در زیرساخت این شرکت خواهد داشت.

برای ایجاد تلاشی به جامعیت برنامه تراشه هوش مصنوعی گوگل یا آمازون،  OpenAIباید صدها مهندس استخدام کند.

 TSMC تراشه هوش مصنوعی OpenAI را با استفاده از فناوری پیشرفته فرآیند ۳ نانومتری خود تولید می‌کند. منابع گفتند که این تراشه دارای معماری آرایه سیستولیک رایج با حافظه پهنای باند بالا (HBM) – که توسط Nvidia نیز برای تراشه‌های خود استفاده می‌شود – و قابلیت‌های شبکه‌سازی گسترده است.

منبع: https://www.reuters.com

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *