دیپ‌سیک یک مدل هوش مصنوعی متن‌باز و پیشرفته برای پردازش زبان طبیعی است که قابلیت‌های قدرتمندی مانند تولید متن، خلاصه‌سازی و استدلال ارایه می‌دهد. این مدل به‌شکل لوکال روی سیستم‌های لینوکس قابل اجراست و گزینه‌ای ایده‌آل برای کاربرانی است که به حریم خصوصی، کنترل کامل و دسترسی به هوش مصنوعی نیاز دارند.

یکی از نقاط قوت DeepSeek انعطاف‌پذیری آن است. با این‌که این مدل، عملکرد چشم‌گیری با استفاده از کارت گرافیک اختصاصی (GPU) دارد اما روی سیستم‌های مبتنی بر CPU هم کار می‌کند. با این تفاوت که با CPU ممکن است سرعت پاسخ‌دهی کم‌تر باشد و مدل‌های بزرگ‌تر به RAM بیش‌تری نیاز داشته باشند.

این راهنما به شما در نصب و راه‌اندازی دیپ‌سیک روی توزیع‌های لینوکس مبتنی بر Ubuntu یا Debian کمک می‌کند تا بدون نیاز به سخت‌افزار پیشرفته، مزایای هوش مصنوعی را روی سرور خود تجربه کنید.

در این آموزش، با شیوه‌‌ی نصب و پیکربندی Ollama برای اجرای دیپ‌سیک و هم‌چنین روش‌های بهینه‌سازی منابع سیستم برای دریافت بهترین عملکرد آشنا خواهید شد.

پیش‌نیازها

پیش از شروع، اطمینان حاصل کنید که سیستم شما حداقل نیازمندی‌ها را دارد. اگرچه دیپ‌سیک روی سیستم‌های مبتنی بر CPU نیز قابل اجراست، اما وجود یک پردازنده‌ی پرسرعت و رم کافی می‌تواند سرعت اجرا را بهبود بخشد. اگر سرور دارای GPU باشد، اولاما به طور خودکار آن را تشخیص داده و برای پردازش سریع‌تر از آن استفاده می‌کند، اما اگر کارت گرافیک شناسایی نشود، پیامی نمایش داده می‌شود که مدل روی CPU در حال اجراست. نیاز به هیچ تنظیم دستی در این فرآیند نیست و همه‌ی مراحل به شکل خودکار مدیریت می‌شوند.

   
اجزا نیازمندی‌ها
سیستم‌عامل Ubuntu/Debian
نرم‌افزار Ollama, Python 3.8+, DeepSeek-R1
منابع حداقل ۱۶ گیگابایت رم و ۱۰ گیگابایت دیسک آزاد
شروط دسترسی اجرای دستورهای sudo

ما در این راهنما از یک ابرک با ۲۴ گیگ رم، ۶ هسته CPU و ۷۵ گیگ دیسک استفاده می‌کنیم.

گام اول: نصب Ollama

Ollama یک پلتفرم متن‌باز برای اجرا و مدیریت مدل‌های هوش مصنوعی روی سیستم‌های لوکال است که برای راه‌اندازی DeepSeek به آن نیاز داریم. با استفاده از دستور زیر اسکریپت رسمی Ollama را دریافت و نصب کنید:

curl -fsSL https://ollama.com/install.sh | sh

پس از نصب با بررسی نسخه‌ی اولاما از صحت نصب آن مطمین شوید:

ollama --version

با دستور زیر وضعیت فعال بودن سرویس اولاما را بررسی کنید:

systemctl is-active ollama.service

گام دوم: دریافت DeepSeek-R1

در این گام باید مدلی را که می‌خواهید راه‌اندازی کنید دریافت کنید. مدل‌های DeepSeek-R1 بر اساس قابلیت‌های سخت‌افزاری در اندازه، سرعت و دقت با هم تفاوت دارند. مدل‌های بزرگ‌تر استدلال و دقت بیش‌تری دارند اما رم و دیسک بیش‌تری نیاز دارند. برای نمونه، برای نصب مدل 7B می‌توان دستور زیر را اجرا کرد:

ollama pull deepseek-r1:7b

جزییات مدل‌های دیپ‌سیک به‌شکل زیر است:

مدل پارامترها فضای دیسک مورد نیاز حداقل RAM GPU توصیه‌شده عملکرد
deepseek-r1:1.5b ۱٫۵ میلیارد ۳ گیگابایت ۸ گیگابایت ۴ گیگابایت سریع‌ترین، مصرف حافظه کم، دقت کم‌تر
deepseek-r1:7b ۷ میلیارد ۱۵ گیگابایت ۱۶ گیگابایت ۸ گیگابایت تعادل مناسب سرعت و دقت
deepseek-r1:8b ۸ میلیارد ۱۷ گیگابایت ۲۴ گیگابایت ۱۰ گیگابایت مشابه 7B با استدلال بهبود یافته
deepseek-r1:14b ۱۴ میلیارد ۳۰ گیگابایت ۳۲ گیگابایت ۱۶ گیگابایت درک بهتر، نیاز به RAM بیش‌تر
deepseek-r1:32b ۳۲ میلیارد ۷۰ گیگابایت ۶۴ گیگابایت ۲۴ گیگابایت دقت بالا، زمان‌ پاسخ‌دهی کندتر
deepseek-r1:70b ۷۰ میلیارد ۱۶۰ گیگابایت ۱۲۸ گیگابایت ۴۸ گیگابایت دقت بسیار بالا، سرعت استدلال کند
deepseek-r1:671b ۶۷۱ میلیارد ۱٫۵ ترابایت گیگابایت +۵۱۲ چندین GPU و ۱۰۰ گیگابایت+ VRAM دقت پیشرفته، استدلال بسیار کند

انتخاب مدل مناسب

  • مدل‌های 1.5B تا 7B: برای کارهای روتین، سرویس‌های چت آنلاین و استدلال‌های سبک

  • مدل‌های 8B تا 14B: مدل‌هایی که توازنی از استدلال بهینه و سرعت را ارایه می‌دهند

  • مدل‌های 32B تا 70B: بسیار پیشرفته، مناسب برای تحلیل‌های پیچیده، نیازمند منابع بالا

  • مدل 671B: نیازمند سخت‌افزارهای بسیار قوی برای تحلیل و پژوهش پیشرفته و پیچیده

گام سوم: شروع به استفاده از DeepSeek

پس از دریافت مدل موردنظرتان، می‌توانید از آن استفاده کنید. برای راه‌اندازی مدل از دستور زیر استفاده کنید:

ollama run deepseek-r1:7b

پس از اجرای دستور، می‌توانید Prompt موردنظرتان را وارد کرده و Enter بزنید تا پاسخ دیپ‌سیک را دریافت کنید.

برای اطلاع از شیوه‌ی پیکربندی و استفاده‌ی پیچیده‌تر، می‌توانید از مستندات Ollama استفاده کنید.

گام چهارم: استفاده از API

اگر نیاز دارید از طریق کد با DeepSeek ارتباط برقرار کنید می‌توانید API آن را فعال کنید.

ollama serve & curl http://localhost:11434/api/generate -d '{"model": "deepseek-r1:7b", "prompt": "Capital of Iran"}'