کنفرانس ISSCC، هوش مصنوعی را در طراحی تراشه و IoT برجسته میکند
در این مقاله با موضوع هوش مصنوعی در طراحی تراشه همراه شما هستیم .گوگل در حال آزمایش یادگیری ماشین (ML) برای اجرای مکان و مسیر در طراحی IC است و در حال بدست آوردن نتایج عالیای است. این کشف، که هفته گذشته در کنفرانس ISSCC اعلام شد، به همان اندازه ای که برای طراحی مدار مهم است، برای هوش مصنوعی هم مهم است.
هوش مصنوعی برای سالها بزرگترین چیز در بخش الکترونیک بودهاست، و مقدار فوقالعادهای از تحقیقات نیمهرسانا را به سمت خود کشیده است (همراه با سرمایهگذاری و سرخط خبرها). با اذعان به این مطلب، موضوع کنفرانس مدارهای مجتمع حالت جامد (ISSCC) در سال جاری، “مدار های مجتمع هوش مصنوعی” بود، و جلسه افتتاحیه مجموعه برای نگاشت فضایی که هوش مصنوعی فضای نیمهرسانا در آن موجود است، اختصاص داده شد.
چهار سخنران توضیح دادند که چگونه الزامات هوش مصنوعی، برای مثال، هدایت دسته جدیدی از پردازشگرهای ساختهشده به طور خاص برای کاربردهای هوش مصنوعی (در کنار سی پی یو ها و جی پی یو ها)؛ در حال رد کردن نوآوری در ساختار هستند (مانند چیپ ها، بستههای چند تراشهای، اینترپوسرها)؛ و حتی دارند بر توسعه محاسبات کوانتومی تاثیر میگذارند.
اولین سخنگوی جلسه، Jeff Dean بود که رهبر گروه AI گوگل بود. Dean، پیشرفت های دنیای یادگیری ماشین (ML) را اعلام کرد که بیش از چندین سال است که آن را به شکلی ارایه میدهد تا به بحث در مورد ابزار مکان و مسیر یادگیری ماشین منجر شود.
تصویر ۱
نتایج یک متخصص انسانی در قرار دادن و مسیریابی یک طرح ASIC در مقابل نتایج تراشه شتابدهنده قدرت پایین یادگیری ماشین. گوگل به طور عمدی بخشهایی از تصاویر را پنهان کرد.
او کار خود را با مروری سریع بر تاریخچه هوش مصنوعی و یادگیری ماشین آغاز کرد، او با ماشینهایی که نحوه بازی تختهنرد را در سال ۱۹۹۵ یاد گرفتند شروع کرد، و از طریق ماشینهایی که در شطرنج برتری یافتند و سپس در حال حاضر میتوانند بازیهای ویدیویی پیچیده ای مانند Starcraft را با موفقیت قابلتوجهی اجرا کنند.
ایده اصلی ای که صنعت کامپیوتر را برای دهه ها کنترل میکرد، این بود که هر چه مسئله بزرگتر باشد، و هر چقدر که توان پردازشی به آن اختصاص دهید، مسائلی که میتوانید با آن حل کنید هم بزرگتر میشوند. برای یک مدت طولانی، این تنها رویکرد درباره حل مسئله با هوش مصنوعی بود.
این رویکرد وقتی شکست خورد که حل مسائل آنقدر پیچیده شدن که صرفاً اضافه کردن تعدادی CPU و GPU دیگر برای حل آنها کافی نبود.
محققان به این نتیجه رسیدند که یادگیری ماشین و هوش مصنوعی به صرف قدرت CPU و GPU بستگی ندارد، اما مسئله مورد نیاز میتواند ساده تر باشد و به دقت پایینتری هنگام حل نیاز داشته باشد. این حقیقت باعث تحولی در صنعت شد» پردازنده های مخصوص یادگیری ماشین و هوش مصنوعی که نیاز نبود به اندازه CPUها یا GPUها پیچیدگی داشته باشند.
این یکی از مهمترین بینش هایی بود که به طراحی پردازنده ای مخصوص کمک کرد.گوگل هم اکنون در حال کار کردن بر روی نسل چهارم از پردازنده های tensorflowی خود است.
بعد از درک این حقیقت که دقت پایینتر هم برای پردازش کافی است، محققان به این نتیجه رسیدند که دقت پایینتر هنگام یادگیری هم مورد نیاز است.
Sally Ward-Foxton، ویراستار روزنامه EE Times این موضوع را در مقاله خود به نام هوش مصنوعی اعداد خود را به دست میاورد توضیح داده است.
پردازنده های هوش مصنوعی و یادگیری ماشین میتوانند بسیار ساختار ساده ای داشته باشند و بنابراین ارزانتر باشند، و ما در حال حاضر پردازنده هایی داریم که به قدر کافی قدرتمند هستند که حتی بر روی پایگاه های داده بزرگ، با سرعت بسیار بالا عمل یادگیری را انجام دهند. Dean توضیح داد که این باعث این شده است که یادگیری ماشین بیشتر به لبه شبکه نزدیک تر شد. یک مثال خاص از این، تشخیص صحبت است، که طبق گفته Dean گوگل به یک مدل بسیار کوچک در این زمینه دست یافته است، به حدی که در گوشی های موبایل هم اجرا میشوند.
هر کدام از کاربرد های هوش مصنوعی، از رانندگی خودکار گرفته تا تصویربرداری پزشکی تا بازی کردن بازی go، از یک مدل هوش مصنوعی یا یادگیری ماشین مخصوص خود به دست آمده اند. در واقع برای هر کدام از این کاربرد ها، مدل هوش مصنوعی مخصوص خودشان را داریم. سؤال بعدی که به وجود میاید این است که آیا ممکن است که یک سیستم هوش مصنوعی تکین و ثابت داشته باشیم که یک کار مشابه با آنچه تا کنون یاد میگرفته است را انجام دهد؟
Dean گفت:
من این موضوع را برای این به میان آوردم که ما به این مشکل هنگام طراحی ASIC ها رسیدیم. طراحی اتوماتیک ASICها بسیار پیچیده تر از بازی go است. اندازه مسئله بزرگتر است، و هدف نسبت به بازی go، نامشخص تر است.
گوگل برای این امر از طراحی یک مدل یادگیری درست کرده است، و در تلاش است تا ابزاری را پیدا کند که این مشکل را حل کند و از چیزی که هنگام طراحی این مدل یاد گرفته است در یک طراحی جدید که قبلاً ندیده است، استفاده کتد. آیا ممکن است چیزی که در یک طراحی یاد گرفته ایم را بردازیم و آنرا به یک طراحی جدید قبلاً مشاهده نشده اعمال کنیم؟ جواب یک بله نامعین بود.
همچنین Dean اضافه کرد: ما به نتایجی فراتر از توانایی انسان با مدلهایی که تاکنون آزمایش کرده ایم رسیده ایم. این مدل دائماً بهتر میشود، و خیلی از اوقات از انسانها هم بهتر عمل میکند.
گوگل نتایج را درمرور زمان، و با تعدادی ابزار موجود در بازار مقایسه کرده است
منظور از عملکرد بهتر، طراحی سریعتر ASIC ها است. برای یک انسان، ممکن است این طراحی هفته ها و هفته ها طول بکشید در حالی که سیستم یادگیری ماشین، این کار را در ۲۴ ساعت میتواند انجام دهد، و طول سیم کمتری را هنگام طراحی مصرف کند.
Dean گفت یادگیری ماشین همچنین میتواند به بخشهای دیگر طراحی IC ها هم اعمال شود، مثلاً استفاده از یادگیری ماشین برای تولید تست ها برای بررسی وضعیت فضای حالت در تایید عملکرد ASIC، و یا حتی استفاده از یادگیری ماشین برای انجام سنتز مرحله بالا برای بدست آوردن طراحی های بهینهتر شده از درخواست های سطح بالاتر.
همه اینها برای یادگیری ماشین یک معنی دارند، که به اندازه سرعت بالاتر در طراحی IC ها اهمیت دارد . اگر یک مدل یادگیری ماشین بتواند در یک زمینه یک مدل کلی بسازد، آیا قادر است تا یک عمل مشابه را با اطلاعات خود انجام دهد؟
Dean پرسید، مدل های یادگیری ماشین آینده ممکن است چگونه باشند؟ آیا ما میتوانیم یک مدل تک را برای کلی کردن اعمال مشابه به کار ببندیم؟ ما بصورت ایده آل بک مدل واحد را میخواهیم که میتواند هزاران یا میلیون ها عمل را انجام دهد.
اینترنت مصنوعی اشیا (AIoT)
Kou_hung Loh، نایب رئیس و مدیر استراتژی در MediaTek، از این سخن گفت که هوش مصنوعی چگونه در حال ایجاد تحول در همه اشیای متصل به اینترنت است، و اینکه اینترنت مصنوعی اشیا (اینترنت اشیا + هوش مصنوعی) در حال تغییر از ده ها میلیارد دستگاه در حال حاضر، به ۳۵۰ میلیارد دستگاه در سال ۲۰۳۰ است.
هوش مصنوعی در حال حرکت به سمت لبه است، زیرا فشار بیشتر بر مراکز داده، ترافیک بالا در شبکه ها و این حقیقت که بعضی از کاربرد ها نیاز به این دارند که پردازش بصورت محلی انجام شود، برای رویکرد فعلی اینترنت اشیا چالش درست کرده اند.
این پردازش محلی همچنین باید سریع باشد، باید مخصوصاً برای پردازش های هوش مصنوعی طراحی شده باشد، و باید که بسیار از نظر انرژی بهینه باشد.
اینها طبیعتاً، نوع جدیدی از پردازنده ها هستند. Loh به آنها پردازنده های هوش مصنوعی (APU) می گوید و سایرین به آن NPU (Neural processing unit) و BPU (Brain processing unit) هم گفته اند. یک APU ممکن است از یک CPU انعطاف پذیری کمتری داشته باشد، اما به دلیل طراحی مخصوص آن، میتواند تا ۲۰ برابر سریعتر باشد و تا ۵۵ برابر توان کمتری مصرف کند.
Loh گفت که توسعه دهندگان APU در حال کار بر روی دستگاه هایی هستند که میتوانند به ۱ TOPS از عملکرد در ۳TOPS/Watt دست یابند. او گفت که ممکن است بتوان تا ۱۰۰ TOPS در ۳۰ TOPS/Watt هم رسید.
همچنین بخوانید -> سنسورهای نهفته کلید رشد هوشمند تحرک هستند
به صورت موازی، محققان MediaTek یک مقاله مجزا منتشر کردند که پیشنهاد یک شناب دهنده دو هسته ای یادگیری عمیق را میداد که تا ۳.۴ الی ۱۳.۳ TOPS/W عملکرد را به ما میدهد و برای استفاده در یک گوشی هوشمند ۵G با تکنولوژی ۷nm مناسب است.
این امر در ۷nm بررسی شده است. بهبود عملکرد با توجه به قانون مور حداقل به یک مرحله بیشتر، یعنی ۵nm احتیاج دارد. البته به گفته Loh قوانین همچنان برقرارند.
البته یک بده بستان هم وجود دارد، زیرا تعداد ترانزیستور ها با پیشرفت تکنولوژی در حال افزایش است و طبق قانون موز در حال بالارفتن است، اما به گفته Loh، هزینه ترانزیستور ها ثابت مانده است. همچنین به دلیل پیچیدگی زیاد طراحی chip ها، و به دلیل پیچیده تر شدن مراحل پیاده سازی آنها، هزینه این دستگاه ها به شدت در حال افزایش است و دستیابی شرکتهای کوچکتر را به این تکنولوژی محدود کرده است.
به گفته Loh، یک راه حل معمول برای بسیاری از این مشکلات، تقسیم کردن تراشه است. به عنوان یک مسئله اساسی، این ممکن است استفاده از روشهای مبتنی بر chiplet باشد، یا به گفته او، ممکن است حتی از قانون مور هم بهتر بشود. چه با chiplet ها و چه با یک معماری دیگر، این به معنای چالش های بزرگتر در اتصالات است.
Co-optimization در تکنولوژی سیستم و هوش مصنوعی
Nadine Collaert، مدیر برنامه در imec، مرحله بعدی را مشخص کرده است که استفاده از یک تراشه دوم را کنار میگذارد و دنبال معماری های حدید برای مدارات مجتمع در آینده است. او به این رویکرد، co-optimization میگوید.
قانون مور تا سالهای بسیاری دیگر همچنان برجا خواهد ماند، اما کوچکتر کردن CMOS ها پرچالش تر شده است. او این موضوع را با نشان دادن معماری های دیگری از سیستم های پیچیده تر میتنی بر تکنولوژی هایی همانند FinFETها، nanosheet ها و forksheet ها را معرفی میکند.
Imec قابلیت استفاده از سیلیکون-بر-عایق (SOI) را در یک محیط نانو نشان میدهد.
به گفته او یکی از اینها باید از رده خارج شود. یک رویکرد جدید مورد نیاز است و “ما باور داریم که که تکنولوژی های ۳D بهترین روش هستند. این شامل پکیج های چندتراشه ای، استفاده از روش bonding یا حتی اتصالات دقیقتر است.”
تصمیم اینکه از کدام تکنولوژی استفاده کنیم نیازمند دانستن مشخصات سیستم در مقایسه با گزینه های موجود است. به گفته Collaert، این قرار است یک مسئله پیچیده شود. این قرار است تا فشار را بر روی فروشندگان EDA بگذارد تا ابزار هایی را ارائه دهند که طراحان را قادر میسازد تا گزینه ها را سبک سنگین کنند.
ماژول های فرانت اند برای ارتباطات بی سیم، یک چالش مهم هستند. عموماً اینها سیستم های پرتنوعی هستند که از اجزای مختلف با تکنولوژی های مختلف استفاده میکنند.، و این پیچیدگی با افزایش تعداد آنتن ها و فیلتر ها و غیره افزایش می یابد.
صنعت در حال حرکت به سمت فرکانسهای بالاتر و سیستم های بهینه تر است. یک گزینه ترکیب کردن مواد III-V (مثل GaN و SiC) با CMOS است تا بتوان از نقاط قوت هر دویشان استفاده کرد. این میتواند با پیاده سازی سه بعدی انجام شود. Collaert سپس یک تصویر از یک نانوریج ساخته شده با III-V را نشان داد که بر روی یک بدنه SOI پیاده شده بود، اما او همچنین گفت که کار بسیار زیادی برای تکمیل کردن این باید انجام شود.
چه درمورد حافظه؟
Collaert میگوید که کاربردهای جدید همانند یادگیری ماشین و هوش مصنوعی در حال ترسیم مسیر برای آینده هستند. نیاز بیشتر به پردازش در حافظه در پکیج های ۳D بسیار مهم خواهد بود.
همچنین، استفاده از فلش برای کاربردهای آینده متفاوت خواهد بود. همچنین یک فشار در صنعت وجود دارد تا جریان کانال در این حافظه ها افزایش یابد. برای انجام این عمل، ما باید به mobility کانال ها بپردازیم، که با مواد III-V امکانپذیر خواهد بود. همچنین در DRAM ها، خازنها به جای استوانه در حال تبدیل به حالت ستونی هستند، که یک شیفت جدید در بعد سوم است. سایر گزینه های حافظه شامل حافظه مغناطیسی برای جابجایی cache، و تکنولوژیهای جدید حافظه ای سه بعدی هستند. Collaert همچنین ذکر کرد که imec یک FeFET معرفی کرده است که هنوز به تحقیقات بیشتری احتیاج دارد.
توسعه همه این حافظه ها، به گفته او همه برای خدمت به یادگیری ماشین است. هوش مصنوعی در حال انفجار است، مقدار زیادی داده در فضای ابری قرار دارند، ما به دلایل زیادی میخواهیم این داده ها را به لبه بیاوریم، و در لبه مسئله مصرف انرژی وجود دارد.
همانند MediaTEK،ـ Imec باور دارد که رسیدن به ۱۰K TOPS/W ممکن است.
او با گفتن اینکه تغییر اندازه ها هنوز در حال انجام هستند به صحبت خود خاتمه داد.
محاسبات کوانتومی و هوش مصنوعی
Dario Gil، مدیر بخش تحقیقات IBM، با گفتن اینکه چه چیزی جدید است، تاکید کرد که حتماً هوش مصنوعی عمومی تر شده، در کامیپوتر های مبتنی بر کوانتوم پاسخ این سوال خواهند بود. خلاصه صحبت او این بود که بهبود های بسیاری از استفاده همزمان از بیت ها (پردازش سیگنال دیجیتال)، نورون ها (هوش مصنوعی) و کوبیت ها (محاسبات کوانتومی) به دست خواهد آمد.
او سپس تاکید کرد که IBM اولین دسترسی به یک کامپیوتر کوانتومی را با سرویس ابری خود در سال ۲۰۱۶ ممکن ساخته است، و اینکه هم اکنون دسترسی به ۱۵ کامپیوترهای کوانتوم دارد که شامل مدل ۵۳-کوبیت جدید خود میشود.
دیدگاهتان را بنویسید
برای نوشتن دیدگاه باید وارد بشوید.