چطور Deep Seek را با استفاده از Ollama LLM در Ubuntu 24.04 اجرا کنیم ؟

اجرا کردن مدل های بزرگ زبانی ( Large Language Models به اختصار LLM ) مثل Deep Seek رو ی سیستم های شخصی یک راه بسیار عالی برای استفاده از توانایی ها و قابلیت های هوش مصنوعی بدون نیاز به سرویس های ابری را برای شما فراهم میکند. در این مقاله شما را در فرا یند نصب Deep Seek با استفاده از Ollama روی Ubuntu 24.04 و تنظیم یک Web UI برای ایجاد یک رابط کاربری آسان، راهنمایی میکنیم.

Deep Seek و Ollama چیست؟
Deep Seek : یک مدل هوش مصنوعی پیشرفته است که برای پردازش مدل های بزگ زبانی توسعه داده شده است، مانند پاسخ دادن به سوالات کاربران، تولید محتوی متنی و فعالیت های بیشتر در این زمینه
Ollama : پلتفورمی که با ارائه ابزار هایی برا ی مدیر یت و ارتباط با مدل هایی مانند Deep Seek اجرای مدل ها ی بزرگ زبانی را روی سیستم های شخصی، ساده سازی میکند.
Web UI : یک رابط کاربری گرافیکی است که به شما اجازه میدهد تا از طریق مرورگر خود با Deep Seek ارتباط گرفته و از
آن استفاده کنید، که با این عمل این مدل پیشرفته هوش مصنوع ی را قابل دسترس تر و استفاده از آن را راحت تر میکند

قدم اول: تهیه و یا نصب سیستم عامل Ubuntu 24.04
برای شروع شما نیاز به سیستم عامل Ubuntu 24.04 دارید، البته با روش ها و سیستم عامل ها ی دیگری نیز میتوان از Deep Seek استفاده کرد اما منحصرا در این مقاله نحوه نصب و استفاده از آن را ر وی سیستم عامل لینوکسی Ubuntu 24.04 توضیح داده ایم. برای به حداقل رساندن مشکلات در فرا یند نصب بهتر است که سیستم عامل و یا سرور مجا زی شما از آی پی خارج از ایران استفاده کند.

قدم دوم: نصب Python و Git
قبل از نصب هر چیز روی سیستم عامل خود بهتر است که سیستم را آپدیت کرده تا از موجود و نصب بودن تمامی پکیج های مورد نیاز اطمینان داشته باشیم. دستور ریز را وارد کرده و منتظر میشو یم که سیستم عامل خود را آپدیت کند :


sudo apt update && sudo apt upgrade -y


به احتمال زیاد Ubuntu پایتون را از پیش در خود موجود و نصب دارد، اما بهتر است بر ای اطمینان داشتن و جلوگیری از ایجاد خطا های بیشتر در ادامه مراحل، ورژن درست و مناسب آن را نصب کنیم ( Python 3.8 یا بالاتر ). دستور زیر را وارد کرده و منتظر میشویم تا پا یتون 3 نصب شود :

sudo apt install python3


پس از نصب برا ی اطمینان از درست نصب شدن و بررسی نهایی ورژن نصب شده دستور زیر را وارد میکنیم و بررسی میکنیم که آیا خطایی مشاهده میکنیم یا خیر و ورژن پایتون نصب شده را هم بار دیگر بررسی میکنیم :

python3 –version


بعد از نصب Python3 باید package manager آن را که با عنوان pip به آن اشاره میشود را نصب کنیم :

sudo apt install python3-pip


این package manager برای نصب فایل های مربوطه Deep Seek و Ollama نیاز خواهد شد. پس از نصب شدن آن ورژن نسخه نصب شده را بررسی میکنم تا از درستی نصب آن مطمئن شویم :

pip3 –version


Git هم برای کلون کردن ریپازیتوری های GitHub نیاز خواهد بود، برای نصب ان از دستور زیر استفاده میکنیم :

sudo apt install git


پس از نصب ورژن آن را هم بررسی میکنیم تا از نبود خطا در طی مراحل نصب مطمئن شویم :

git --version


قدم سوم: نصب Ollama برای استفاده از Deep Seek
بعد از نصب Python و Git میتوانیم Ollama را نصب کنیم. با استفاده از دستور زیر Ollama را نصب میکنیم :

curl -fsSL https://ollama.com/install.sh | sh


پس از نصب Ollama و بررسی ورژن آن برای اطمینان از نبود خطا :

ollama –version


پس از نصب و بررس ی نسخه Ollama باید آنرا فعال کنیم :

sudo systemctl start ollama
sudo systemctl enable ollama

در این بخش از فرایند نصب، Ollama نصب شده و در ادامه نصب Deep Seek را شروع میکنیم :

قدم چهارم: دانلود و نصب مدل Deep Seek
برای نمونه برای نصب Deep Seek ورژن R1 7B :

ollama run deepseek-r1:7b

این فرا یند ممکن است با توجه به منابع سرور و سرویس شما چند دقیقه طول بکشد.
پس از اینکه دانلود کامل شد، میتوانید با استفاده از دستور زیر ورژن Ollama موجود را مشاهده کنید :

ollama list

قدم پنجم:
اجرا Deep Seek با استفاده از WebUI:
Ollama به شما اجازه میدهد تا از طریق ترمینال با Deep Seek ارتباط داشته و از آن استفاده کنید؛ اما ممکن است برخی از کاربران صفحه وب که استفاده راحت تر و چشم نوازتری دارد را بپسندند. به همین جهت ما از Ollama WebUI استفاده میکنیم تا با مدل های قابل استفاده از طر یق Ollama ارتباط بگیریم.
برای این کار ابتدا یک محیط مجازی که فایل های ضمیمه ایی پایتون را از فایل های دیگر سیستم جدا میکند را ایجاد میکنیم:

sudo apt install python3-venv
python3 -m venv ~/open-webui-venv
source ~/open-webui-venv/bin/activate


حالا که محیط مجازی مورد نظر راه افتاده است، میتوانیم با استفاده از pip ابزار Open WebUI را نصب کنیم:

pip install open-webui


پس از نصب با استفاده از دستور زیر سرور را راه اندازی میکنیم:

open-webui serve

مرورگر خود را باز کنید و وارد آدرس زیر شوید:

http://localhost:8080


اگر تمامی مراحل درست پیشرفته باشد باید صفحه وب Ollama را مشاهده کنید. در صفحه مربوطه میتوانید مدل Deep Seek ایی که میخواهید از آن استفاده کنید را انتخاب کرده و از آن استفاده کنید.

قدم ششم: فعال کردن Oepn-WebUI برای استارت خودکار در زمان بوت شدن سیستم
برای اینکه صفحه مربوطه در زمان بوت شدن سیستم فعال شود، میتوانید با ایجاد یک Systemd service انجام خودکار این فرایند را تنظیم کنید:

sudo nano /etc/systemd/system/open-webui.service


موارد زیر را داخل فایل مورد نظر وارد کنید و به جای Your_username از یوزرنیم اصلی خود استفاده کنید:

[Unit]
Description=Open WebUI Service
After=network.target
[Service]
User=your_username
WorkingDirectory=/home/your_username/open-webui-venv
ExecStart=/home/your_username/open-webui-venv/bin/open-webui serve
Restart=always
Environment="PATH=/home/your_username/open-webui-venv/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"
[Install]
WantedBy=multi-user.target

حالا میتوانیم System daemon را ریلود کنیم تا سرویس جدید ایجاد شده را بشناسد:

sudo systemctl daemon-reload

و در نها یت سرویس مورد نظر را فعال میکنیم تا در زمان بوت شدن فعال شود:

sudo systemctl enable open-webui.service
sudo systemctl start open-webui.service

و برای اطمینان میتوانید شرایط سرویس مربوطه را هم بررسی کنید:

sudo systemctl status open-webui.service

 

Hai trovato utile questa risposta? 0 Utenti hanno trovato utile questa risposta (0 Voti)