زمانی که فناوری هوش مصنوعی مولد شروع به کار کرد، اپل کمی غافلگیر شد. با این حال، گمان میرود که غول فناوری کوپرتینویی با مدلهای LLM خود کار میکند و هدف آن ادغام استفاده گستردهتر از این فناوری در نسخههای آینده iOS و Siri است.
محققان هوش مصنوعی اپل ادعا میکنند که با معرفی یک تکنیک حافظه فلش مبتکرانه، پیشرفت قابل توجهی در استفاده از مدل های زبان بزرگ (LLM) در آیفونها و سایر دستگاههای اپل با حافظه پایینتر داشتهاند.
پیشرفت های اجرای LLM در آیفون
مقاله تحقیقاتی با عنوان “LLM in a flash: Efficient Large Language Model Inference with Limited Memory” در 12 دسامبر 2023 منتشر شد، اما زمانی که Hugging Face، محبوبترین وبسایت دانشمندان هوش مصنوعی برای نمایش آثار خود، آن را اعلام کرد، توجه بیشتری را به خود جلب کرد. این دومین مقاله تحقیقاتی اپل در مورد هوش مصنوعی مولد در این ماه است و آخرین مورد از یک سری اقداماتی است که به مدلهای تولید کننده تصویر، مانند Stable Diffusion، اجازه میدهد تا روی تراشههای سفارشی آن اجرا شوند.
تا قبل از این پیشرفت، اجرای مدلهای زبان بزرگ بر روی دستگاههایی با حافظه محدود غیرممکن تلقی میشد، زیرا LLMها به مقدار زیادی RAM برای ذخیره دادهها و فرآیندهای حافظه فشرده نیاز دارند. برای مبارزه با این موضوع، محققان اپل فناوری ذخیره سازی داده ها بر روی فلش مموری، حافظه ثانویه ای که برای ذخیره تصاویر، اسناد و برنامه ها استفاده می شود، ابداع کرده اند.
محققان اپل می گویند که “با ذخیره پارامترهای مدل بر روی حافظه فلش اما در صورت نیاز به DRAM، با چالش اجرای کارآمد LLM هایی که بیش از ظرفیت DRAM موجود هستند، مقابله میکند.”
بنابراین، کل LLM هنوز در دستگاه ذخیره میشود، اما استفاده از آن در RAM میتواند با کار با فلش مموری، یک فرم حافظه مجازی، انجام شود. تفاوت زیادی با نحوه انجام آن در macOS برای کارهایی که به حافظه زیادی نیاز دارند، ندارد.
به عبارت ساده، محققان اپل با استفاده از دو تکنیک که میتوانند انتقال دادهها را به حداقل برسانند و ظرفیت حافظه فلش را به حداکثر برسانند، محدودیتها را زیرکانه دور زدند:
این را از نظر راهی برای بازیافت داده ها تصور کنید. مدل هوش مصنوعی به جای بارگیری دادهها در هر بار، از بخشی از دادههای موجود که قبلا پردازش کرده بود، دوباره استفاده میکند. این بدان معناست که نیاز کمتری به واکشی دائمی داده ها و ذخیره آن در حافظه وجود دارد و این روند را سریعتر و روانتر میکند.
دسته بندی ردیف-ستون: این تکنیک شبیه به خواندن یک متن در تکههای بزرگتر است نه یک کلمه در هر کدام. هنگامی که دادهها به طور مؤثرتر گروه بندی شوند، میتوان سریعتر از حافظه فلش خواند و توانایی هوش مصنوعی برای درک و تولید زبان را افزایش داد.
این مقاله تحقیقاتی میگوید که ترکیب این تکنیکها به مدلهای هوش مصنوعی این امکان را میدهد که بتوانند حداقل دو برابر حافظه آیفون کار کنند. پیشبینی میشود که این روش سرعت پردازندههای معمولی (CPU) را 5 برابر و برای پردازندههای گرافیکی (GPU) 20 تا 25 برابر سریعتر افزایش دهد.
پیشرفت جدید در بهرهوری هوش مصنوعی، امکانات جدیدی را برای آیفونهای آینده باز کرده است، از جمله قابلیتهای پیچیدهتر سیری و ترجمه زبان بلادرنگ و همچنین ویژگیهای پیشرفته مبتنی بر هوش مصنوعی برای عکاسی و واقعیت افزوده. این فناوری همچنین زمینه را برای آیفون ها فراهم میکند تا چت ربات ها و دستیارهای پیشرفته هوش مصنوعی روی دستگاه را اجرا کنند که گفته میشود اپل روی آنها کار میکند. نظر شما درمورد این پیشرفت ها و آینده گوشی های اپل چیست؟! نظرات خود را با ما در دانوتک درمیان بگذارید.