خلاصه
با ترکیب LangGraph، Ollama و مدل سبک Qwen3 میتوانید یک عامل هوش مصنوعی کاملاً محلی بسازید که نیازی به اینترنت یا API ندارد، هزینهای نمیبرد و اطلاعات شما همیشه در دستگاهتان باقی میماند.
چرا عامل محلی؟
حذف هزینههای API، کاهش تأخیر و کنترل کامل بر دادهها سه دلیل اصلی مهاجرت به AI محلی است.
آشنایی سریع با ابزارها
LangGraph چیست؟
چارچوبی گرافی که جریان کار هوش مصنوعی را با گرههای وظیفه و یالهای تصمیمگیری شفاف میکند.
Ollama چیست؟
ابزار اجرای مدلهای متنباز در لپتاپ یا سرور شخصی بدون نیاز به اینترنت.
مدل Qwen3
نسخههای ۰٫۶B و ۱٫۷B آن کوانتایز شدهاند؛ مصرف RAM کم و سرعت بالا برای توسعهدهندههای محلی ایدهآلاند.
راهاندازی محیط توسعه
با Poetry یک پروژه ایزوله بسازید و در pyproject.toml تنها همین سه بسته را اضافه کنید: langgraph، ollama و langchain-core.
طراحی ابزار و رفتار عامل
ابزارهای ریاضی (+, ×, ÷) را تابعپیاده کنید و با یک پیام سیستم ساده به عامل بگویید «ابتدا فکر کن، سپس ابزار مناسب را فراخوان و پاسخ نهایی را برگردان».
ساخت گراف جریان
- گره START: دریافت پرسش کاربر
- گره THINK: انتخاب ابزار با LLM محلی
- گره TOOL: اجرای عملیات ریاضی
- گره END: بازگرداندن پاسخ به کاربر
با یک یال شرطی ساده میتوانید اگر خروجی عدد نبود، عامل را به گره THINK بازگردانید تا ابزار دیگری امتحان کند.
تست و بازبینی
ابتدا محاسبه ساده «۲۳×۷» را بدهید؛ خروجی باید در کمتر از ۲ ثانیه آماده شود. اگر خطا دید، لاگ گراف را در LangGraph Studio بررسی و گره مشکل را اصلاح کنید.
بهینهسازی منابع
مدل ۰٫۶B برای پروتوتایپ کافی است؛ اگر کاربر همزمان زیاد شد، نسخه ۱٫۷B را با کمی افزایش RAM فعال کنید. همیشه --verbose را خاموش و لاگها را دورهای پاک کنید تا دیسک پر نشود.
چند قدم تا عملیاتی شدن
- Ollama را نصب و Qwen3 را بکشید:
ollama pull qwen3:1.7b - پروژه Poetry را ساخته و کد گراف را اجرا کنید
- با یک رابط خط فرمان ساده (
input()) عامل را امتحان کنید - در نهایت فایل اجرایی مستقل بسازید تا روی هر لپتاپ لینوکس یا مک بدون نیاز به اینترنت کار کند
حالا شما یک عامل هوش مصنوعی کاملاً محلی دارید که بدون هزینه، بدون اتصال اینترنت و با حفظ حریم خصوصی، محاسبات و منطق پیچیده را برایتان انجام میدهد.
