دیپسیک یک مدل هوش مصنوعی متنباز و پیشرفته برای پردازش زبان طبیعی است که قابلیتهای قدرتمندی مانند تولید متن، خلاصهسازی و استدلال ارایه میدهد. این مدل بهشکل لوکال روی سیستمهای لینوکس قابل اجراست و گزینهای ایدهآل برای کاربرانی است که به حریم خصوصی، کنترل کامل و دسترسی به هوش مصنوعی نیاز دارند.
یکی از نقاط قوت DeepSeek انعطافپذیری آن است. با اینکه این مدل، عملکرد چشمگیری با استفاده از کارت گرافیک اختصاصی (GPU) دارد اما روی سیستمهای مبتنی بر CPU هم کار میکند. با این تفاوت که با CPU ممکن است سرعت پاسخدهی کمتر باشد و مدلهای بزرگتر به RAM بیشتری نیاز داشته باشند.
این راهنما به شما در نصب و راهاندازی دیپسیک روی توزیعهای لینوکس مبتنی بر Ubuntu یا Debian کمک میکند تا بدون نیاز به سختافزار پیشرفته، مزایای هوش مصنوعی را روی سرور خود تجربه کنید.
در این آموزش، با شیوهی نصب و پیکربندی Ollama برای اجرای دیپسیک و همچنین روشهای بهینهسازی منابع سیستم برای دریافت بهترین عملکرد آشنا خواهید شد.
پیشنیازها
پیش از شروع، اطمینان حاصل کنید که سیستم شما حداقل نیازمندیها را دارد. اگرچه دیپسیک روی سیستمهای مبتنی بر CPU نیز قابل اجراست، اما وجود یک پردازندهی پرسرعت و رم کافی میتواند سرعت اجرا را بهبود بخشد. اگر سرور دارای GPU باشد، اولاما به طور خودکار آن را تشخیص داده و برای پردازش سریعتر از آن استفاده میکند، اما اگر کارت گرافیک شناسایی نشود، پیامی نمایش داده میشود که مدل روی CPU در حال اجراست. نیاز به هیچ تنظیم دستی در این فرآیند نیست و همهی مراحل به شکل خودکار مدیریت میشوند.
اجزا | نیازمندیها |
سیستمعامل | Ubuntu/Debian |
نرمافزار | Ollama, Python 3.8+, DeepSeek-R1 |
منابع | حداقل ۱۶ گیگابایت رم و ۱۰ گیگابایت دیسک آزاد |
شروط | دسترسی اجرای دستورهای sudo |
گام اول: نصب Ollama
Ollama یک پلتفرم متنباز برای اجرا و مدیریت مدلهای هوش مصنوعی روی سیستمهای لوکال است که برای راهاندازی DeepSeek به آن نیاز داریم. با استفاده از دستور زیر اسکریپت رسمی Ollama را دریافت و نصب کنید:
curl -fsSL https://ollama.com/install.sh | sh
پس از نصب با بررسی نسخهی اولاما از صحت نصب آن مطمین شوید:
ollama --version
با دستور زیر وضعیت فعال بودن سرویس اولاما را بررسی کنید:
systemctl is-active ollama.service
گام دوم: دریافت DeepSeek-R1
در این گام باید مدلی را که میخواهید راهاندازی کنید دریافت کنید. مدلهای DeepSeek-R1 بر اساس قابلیتهای سختافزاری در اندازه، سرعت و دقت با هم تفاوت دارند. مدلهای بزرگتر استدلال و دقت بیشتری دارند اما رم و دیسک بیشتری نیاز دارند. برای نمونه، برای نصب مدل 7B میتوان دستور زیر را اجرا کرد:
ollama pull deepseek-r1:7b
جزییات مدلهای دیپسیک بهشکل زیر است:
پارامترها | فضای دیسک مورد نیاز | حداقل RAM | GPU توصیهشده | عملکرد | |
---|---|---|---|---|---|
deepseek-r1:1.5b | ۱٫۵ میلیارد | ۳ گیگابایت | ۸ گیگابایت | ۴ گیگابایت | سریعترین، مصرف حافظه کم، دقت کمتر |
deepseek-r1:7b | ۷ میلیارد | ۱۵ گیگابایت | ۱۶ گیگابایت | ۸ گیگابایت | تعادل مناسب سرعت و دقت |
deepseek-r1:8b | ۸ میلیارد | ۱۷ گیگابایت | ۲۴ گیگابایت | ۱۰ گیگابایت | مشابه 7B با استدلال بهبود یافته |
deepseek-r1:14b | ۱۴ میلیارد | ۳۰ گیگابایت | ۳۲ گیگابایت | ۱۶ گیگابایت | درک بهتر، نیاز به RAM بیشتر |
deepseek-r1:32b | ۳۲ میلیارد | ۷۰ گیگابایت | ۶۴ گیگابایت | ۲۴ گیگابایت | دقت بالا، زمان پاسخدهی کندتر |
deepseek-r1:70b | ۷۰ میلیارد | ۱۶۰ گیگابایت | ۱۲۸ گیگابایت | ۴۸ گیگابایت | دقت بسیار بالا، سرعت استدلال کند |
deepseek-r1:671b | ۶۷۱ میلیارد | ۱٫۵ ترابایت | گیگابایت +۵۱۲ | چندین GPU و ۱۰۰ گیگابایت+ VRAM |
انتخاب مدل مناسب
-
مدلهای 1.5B تا 7B: برای کارهای روتین، سرویسهای چت آنلاین و استدلالهای سبک
-
مدلهای 8B تا 14B: مدلهایی که توازنی از استدلال بهینه و سرعت را ارایه میدهند
-
مدلهای 32B تا 70B: بسیار پیشرفته، مناسب برای تحلیلهای پیچیده، نیازمند منابع بالا
-
مدل 671B: نیازمند سختافزارهای بسیار قوی برای تحلیل و پژوهش پیشرفته و پیچیده
گام سوم: شروع به استفاده از DeepSeek
پس از دریافت مدل موردنظرتان، میتوانید از آن استفاده کنید. برای راهاندازی مدل از دستور زیر استفاده کنید:
ollama run deepseek-r1:7b
پس از اجرای دستور، میتوانید Prompt موردنظرتان را وارد کرده و Enter بزنید تا پاسخ دیپسیک را دریافت کنید.
برای اطلاع از شیوهی پیکربندی و استفادهی پیچیدهتر، میتوانید از استفاده کنید.
گام چهارم: استفاده از API
اگر نیاز دارید از طریق کد با DeepSeek ارتباط برقرار کنید میتوانید API آن را فعال کنید.