HBM2 سامسونگ
حافظه جدید HBM2 سامسونگ دارای 1.2 ترافلاپس قدرت پردازش است

امروز، سامسونگ اعلام کرد که حافظه جدید مبتنی بر HBM2 خود دارای یک پردازنده AI یکپارچه است که می تواند 1.2 TFLOPS از توان محاسباتی تعبیه شده را بیرون بکشد و به تراشه حافظه اجازه می دهد تا عملیاتی را انجام دهد که معمولاً برای CPU ها، GPUها ، ASIC ها اختصاص داده می شود. یا FPGA.
تراشه های جدید HBM-PIM (پردازش در حافظه) یک موتور AI را در داخل هر بانک حافظه تزریق می کنند ، بنابراین عملیات پردازش را به خود HBM بارگیری می کنند. کلاس جدید حافظه برای کاهش بار جابجایی داده ها بین حافظه و پردازنده ها طراحی شده است، که اغلب از نظر مصرف برق و زمان گران تر از عملیات محاسبه واقعی است.
سامسونگ می گوید، با استفاده از حافظه موجود HBM2 Aquabolt ، این فناوری می تواند دو برابر عملکرد سیستم را ارائه دهد در حالی که مصرف انرژی را بیش از 70 درصد کاهش می دهد. این شرکت همچنین ادعا می كند كه حافظه جدید به هیچگونه تغییر نرم افزاری یا سخت افزاری نیازی ندارد، بنابراین زمان سریع تری را برای بازرسان اولیه می تواند عرضه كند.
سامسونگ می گوید این حافظه در شتاب دهنده های هوش مصنوعی با ارائه دهندگان پیشرو راه حل های AI تحت آزمایش است. این شرکت پیش بینی می کند تمام اعتبارسنجی ها در نیمه اول سال جاری به پایان برسد و این یک مسیر سریع به بازار است.
سامسونگ این هفته جزئیات دقیق تر از حافظه جدید خود را در جریان کنفرانس بین المللی مدارهای حالت جامد (ISSCC) ارائه داد.
همانطور که در اسلایدهای بالا مشاهده می کنید ، هر بانک حافظه دارای یک واحد محاسبه قابل برنامه ریزی (PCU) است که با سرعت 300 مگاهرتز کار می کند ، در مجموع 32 PCU در هر کشته. این واحدها از طریق دستورات حافظه معمولی از میزبان کنترل می شوند تا پردازش درون DRAM را فعال کنند و آنها می توانند محاسبات مختلف FP16 را اجرا کنند. حافظه همچنین می تواند در هر دو حالت استاندارد کار کند ، به این معنی که به عنوان HBM2 معمولی کار می کند ، یا در حالت FIM برای پردازش داده در حافظه کار می کند.
به طور طبیعی، ایجاد فضای کافی برای واحدهای PCU باعث کاهش ظرفیت حافظه می شود – هر قالب حافظه مجهز به PCU دارای نیمی از ظرفیت (4 گیگابایت) در هر قالب در مقایسه با قالب استاندارد 8Gb HBM2 است. برای کمک به خنثی کردن این مسئله ، سامسونگ با ترکیب چهار قالب 4 گیگابایتی با PCU با چهار قالب 8 گیگابایتی بدون PCU، پشته های 6 گیگابایتی را به کار گرفته است.
به طور قابل توجهی ، مقاله و اسلایدهای فوق از این فناوری به عنوان DRAM حافظه عملکردی (FIMDRAM) یاد می کنند ، اما این یک کد رمز داخلی برای فناوری بود که اکنون نام تجاری HBM-PIM را یدک می کشد. نمونه های سامسونگ بر اساس یک تراشه نمونه 20 نانومتری ساخته شده است که بدون افزایش مصرف انرژی ، به ازای هر پین توان 2.4 گیگابیت بر ثانیه را می رساند.
این مقاله فناوری زیربنایی را به عنوان “DRAM حافظه عملکردی (FIMDRAM) توصیف می کند که یک موتور 16 داده ای تک دستورالعمل 16 پهن را در بانک های حافظه ادغام می کند و از موازی کاری در سطح بانک بهره می برد تا پهنای باند پردازشی 4 than بالاتر از خاموش راه حل حافظه-تراشه. دوم ، ما تکنیک هایی را نشان می دهیم که به هیچ گونه تغییری در کنترل کننده های حافظه معمولی و پروتکل های فرمان آنها نیاز ندارند ، که FIMDRAM را برای تصویب سریع صنعت کاربردی تر می کند. ”
متأسفانه حداقل در حال حاضر این قابلیت ها را در جدیدترین GPU های بازی نخواهیم دید. سامسونگ خاطرنشان می کند که این حافظه جدید برای تأمین نیازهای پردازش در مقیاس بزرگ در مراکز داده ، سیستم های HPC و برنامه های تلفن همراه مجهز به هوش مصنوعی در نظر گرفته شده است.

همانند اکثر تکنیک های پردازش در حافظه ، ما انتظار داریم که این فناوری محدودیت های خنک کننده تراشه های حافظه را تحت فشار قرار دهد ، خصوصاً با توجه به اینکه تراشه های HBM معمولاً در پشته هایی مستقر هستند که دقیقاً برای خنک سازی آسان مناسب نیستند. ارائه سامسونگ چگونگی رسیدگی HBM-PIM به این چالش ها را پوشش نداد.
کوانگیل پارک ، معاون ارشد برنامه ریزی محصولات حافظه در سامسونگ الکترونیک اظهار داشت، “پیشگامانه HBM-PIM ما اولین راه حل قابل برنامه ریزی PIM در صنعت است که برای بارهای متنوع AI-محور مانند HPC ، آموزش و استنتاج مناسب است. ما قصد داریم این پیشرفت را دنبال کنیم. با همکاری بیشتر با ارائه دهندگان راه حل AI برای حتی برنامه های پیشرفته تر با PIM.