نام کاربری یا نشانی ایمیل
رمز عبور
مرا به خاطر بسپار
پردازندههای جدید Ryzen AI 300 شرکت AMD در مقایسه با پردازندههای اینتل، عملکرد بهتری در انجام وظایف مربوط به هوش مصنوعی از خود نشان میدهند. بهگزارش تکناک، با توجه به نقش روزافزون هوش مصنوعی در کاربردهای روزمره، بسیاری از کاربران بهدنبال امکان اجرای مدلهای زبان بزرگ (LLM) بهصورت محلی روی لپتاپها یا دسکتاپهای خود هستند. […]
پردازندههای جدید Ryzen AI 300 شرکت AMD در مقایسه با پردازندههای اینتل، عملکرد بهتری در انجام وظایف مربوط به هوش مصنوعی از خود نشان میدهند.
بهگزارش تکناک، با توجه به نقش روزافزون هوش مصنوعی در کاربردهای روزمره، بسیاری از کاربران بهدنبال امکان اجرای مدلهای زبان بزرگ (LLM) بهصورت محلی روی لپتاپها یا دسکتاپهای خود هستند. در این زمینه، نرمافزار محبوب LM Studio که مبتنیبر پروژه llama.cpp است و بدون نیاز به وابستگیهای اضافی تنها با استفاده از CPU کار میکند، به ابزار اصلی کاربران تبدیل شده است.
فونآرنا مینویسد که شرکت AMD با بهرهگیری از محبوبیت LM Studio، بهبودهای درخورتوجهی در عملکرد LLMها با استفاده از پردازندههای جدید سری Ryzen AI 300 خود بهنمایش گذاشته است. این شرکت اعلام کرده است که پردازندههای جدید سری AMD Ryzen AI 300 میتوانند شتابدهی کارآمد و عملکردی پیشرفته در برنامههای مبتنیبر llama.cpp، ازجمله LM Studio، ارائه دهند که روی لپتاپهای x86 قابلیت اجرا دارند.
برای معیار توکن بر ثانیه (tk/s) که نشاندهنده سرعت تولید توکنها (پاسخ) بهوسیله LLM است، پردازندههای Core Ultra 7 اینتل و Ryzen AI 9 HX 375 بررسی شدند. در این مقایسه، AMD به سرعتی تا ۲۷ درصد بیشتر از رقیب خود دست یافت. همچنین، این شرکت در معیار زمان تولید اولین توکن، ۳/۵ برابر سریعتر عمل کرد.
پردازندههای Ryzen AI از NPUهای مبتنیبر معماری AMD XDNA 2 برای انجام مستمر وظایف هوش مصنوعی مانند Copilot Plus استفاده میکنند و برای وظایف درخواستی هوش مصنوعی به iGPU متکی هستند. سری Ryzen AI 300 از قابلیتی به نام Variable Graphics Memory (VGM) برخوردار است که از بلوک ۵۱۲ مگابایتی اختصاصی برای iGPU و بلوکی دیگر از حافظه سیستم بهصورت اشتراکی استفاده میکند.
این ترکیب iGPU و VGM بهطور میانگین افزایش عملکرد چشمگیری در مدلهای زبانی مصرفکننده مبتنیبر API مستقل Vulkan ارائه میدهد. AMD اعلام کرد که با فعالسازی VGM (۱۶ گیگابایت)، بهبود ۲۲ درصدی دیگری در مدل Meta Llama 3.2 1b Instruct مشاهده شد که درمجموع به بهبود ۶۰ درصدی سرعت در مقایسه با CPU منجر شده است.
علاوهبر این، AMD در مقایسه با اینتل در نرمافزار اختصاصی Intel AI Playground، عملکرد بهتری نشان داد و ۸/۷ درصد سریعتر در مدل Microsoft Phi 3.1 Instruct و ۱۳ درصد سریعتر در مدل Mistral 7b Instruct 0.3 بود.
شرکت AMD دراینباره گفت:
ما به گسترش مرزهای هوش مصنوعی و فراهمسازی دسترسی همگانی به آن اعتقاد داریم. این هدف زمانی محقق میشود که پیشرفتهای هوش مصنوعی از محدودیتهای فنی و نیاز به مهارتهای برنامهنویسی حرفهایتر عبور کنند. به همین دلیل، برنامههایی مانند LM Studio اهمیت فراوان دارند. این برنامهها علاوهبر فراهمکردن روشی سریع و آسان برای اجرای LLMها بهصورت محلی، به کاربران امکان میدهند که مدلهای پیشرفته را تقریباً بلافاصله تجربه کنند.
AMD با شتابدهندههای Ryzen AI و ویژگیهایی مانند Variable Graphics Memory، عملکردی قدرتمند در کاربردهای هوش مصنوعی ارائه میدهد که نتیجه آن تجربهای بینظیر برای کاربران مدلهای زبانی روی لپتاپهای x86 است.
Source link
این مطلب بدون برچسب می باشد.
بنابر گزارش KoreaHerald، سامسونگ، غول فناوری کرهجنوبی، در تلاش است تا با بهرهگیری از آخرین دستاوردهای هوش مصنوعی شرکتهای مطرح، تجربهی استفاده از گوشیهای هوشمند خود را ارتقا دهد. در همین زمینه، شایعاتی مبنیبر همکاری این شرکت با OpenAI، خالق مدل زبانی قدرتمند ChatGPT، به گوش میرسد. درحالحاضر، سامسونگ از مدلهای زبانی بزرگ (LLM) خود […]
در جدیدترین پتنت ثبتشده AMD، روشی نوآورانه به نام Chip Stacking برای قراردادن تراشهها روی هم معرفی شده است که استفاده از فضای تراشه را افزایش چشمگیری میدهد. به گزارش تکناک، AMD در جدیدترین پتنت خود، از روشی منحصربهفرد برای Chip Stacking (انباشتن تراشهها) پرده برداشت. این روش میتواند استفاده از قالبها را افزایش درخورتوجه و […]
OpenAI، شرکت توسعهدهندهی ChatGPT، با معرفی ابزار جدیدی به نام NLWeb (وب طبیعی زبان)، قدم بزرگی در جهت رقابت با گوگل در عرصهی موتورهای جستجو برداشته است. این ابزار نوآورانه، قابلیتهای جستجوی پیشرفتهی ChatGPT را به وبسایتهای مختلف اضافه کرده و به کاربران امکان میدهد تا به جای جستجوی کلمات کلیدی، پرسشهای خود را به […]
ابزار طیفسنجی انرژی تاریک تاکنون دادههایی را درباره نحوه تجمع حدود شش میلیون کهکشان در طول ۱۱ میلیارد سال گذشته جمعآوری کرده است. اسحاق بواسحاقی و همکارانش این دادهها را با نتایج چندین بررسی بزرگ دیگر ازجمله نقشهبرداری از تابشهای ریزموج زمینه کیهانی و ابرنواخترها ترکیب کردند. آنها سپس دادهها را با پیشبینیهای نظریهای در زمینه […]