
OpenAI تنظیم دقیق GPT-4o را ارائه می دهد
مهر ۱۲, ۱۴۰۳
متا با عرضه مدل هوش مصنوعی Llama 3.1، بزرگترین مدل متنباز جهان، قدم بزرگی در عرصه هوش مصنوعی برداشته است.
مارک زاکربرگ، مدیرعامل متا، در پستی بلاگی این حرکت را به عنوان نقطه عطفی در صنعت هوش مصنوعی توصیف کرد و آن را با جایگاه لینوکس در سیستمهای عامل و دستگاههای ابری مقایسه کرد. او افزود: “من معتقدم انتشار Llama 3.1 باعث خواهد شد که بیشتر توسعهدهندگان به استفاده از مدلهای متنباز روی بیاورند.”
مدل Llama 3.1، نسل جدید مدلهای زبانی Llama از متا، با بهبودهای چشمگیری در مقایسه با نسخههای پیشین عرضه شده است.
دو عامل اصلی که متا بر آن تأکید دارد، متنباز بودن و مقیاس عظیم این مدل است.
این مدل دارای 405 میلیارد پارامتر است که آن را به یکی از بزرگترین مدلهای متنباز تبدیل کرده است. همچنین، این مدل با استفاده از 16,000 پردازنده Nvidia H100 بر روی دیتاستی شامل 15 تریلیون توکن آموزش داده شده است.
ظرفیت بالای پارامترها امکان پردازش الگوها و روابط پیچیدهتری را در دادهها فراهم میکند. همچنین، آموزش مدل با توکنهای متنوع، قابلیتهای گستردهای را به مدل میبخشد که توسعهدهندگان میتوانند بدون نیاز به آموزش مجدد از آن بهرهبرداری کنند.
مدل Llama 3.1 قابلیت انجام وظایفی مانند کدنویسی، حل مسائل ریاضی پایه و خلاصهسازی اسناد به هشت زبان مختلف را داراست. همچنین، توانایی پردازش متنهای بلندتر، کاربرد آن را در چتباتها و تحلیل اسناد بهبود میبخشد.
یکی از مزایای اصلی Llama 3.1 نسبت به مدلهای بسته مانند GPT-4o، هزینه کمتر پردازش آن است. زاکربرگ ادعا کرده که استفاده از این مدل تا 50% کمتر از مدلهای مشابه هزینه دارد.
علاوه بر این، شرکتهایی همچون Amazon، Databricks، و NVIDIA با متا همکاری میکنند تا توسعهدهندگان بتوانند مدلهای خود را با کمک Llama تنظیم و بهینهسازی کنند.
زاکربرگ معتقد است که مدلهای متنباز میتوانند دموکراتیزه کردن فناوری هوش مصنوعی را تسهیل کنند و دسترسی به مزایا و فرصتهای هوش مصنوعی را برای افراد بیشتری فراهم کنند. با این حال، همچنان بحثهایی در مورد امنیت مدلهای متنباز و انعطافناپذیری مدلهای بسته وجود دارد.