خلاصه
ترکیب Paperless-ngx با Paperless AI و یک LLM محلی مثل Ollama، جستوجوی فایلها را از دقایق به ثانیه تبدیل میکند؛ بدون اشتراک، بدون آپلود اطلاعات و فقط با یک کارت گرافتن نسبتاً قوی.
مقدمه
اگر سالی صدها فاکتور، قرارداد و قبوض دیجیتال دارید، پیدا کردن یک برگهی خاص مثل یافتن سوزن در انبار کاغذ است. با راهحلی که معرفی میکنم، دیگر نام فایل یا تگها مهم نیست؛ فقط سؤال میپرسید و در چند ثانیه پاسخ میگیرید.
چرا بدون LLM، Paperless-ngx کافی نیست؟
وقتی تعداد فایلها از چند صد رد میشود، حتی تگگذاری دقیق هم کم میآورد. جستوجو بر اساس نام یا پوشه دقایق طول میکشد و برای استخراج اطلاعات باید خودتان صفحات را بخوانید.
چطور Paperless AI جستوجو را هوشمند میکند؟
۱. حالت گفتوگوی RAG
کافیست بنویسید «قرارداد سقف کاذب را نشان بده»، همهی اسناد مرتبط را میآورد و خلاصهای از هرکدام میدهد.
۲. حالت گفتوگوی تکی
روی یک فایل خاص تمرکز میکند؛ مثلاً میپرسید «جمع کل هزینه چقدر بوده؟» و در همان صفحه پاسخ میدهد.
۳. حالت دستی
هر سند را انتخاب میکنید، AI آن را در پسزمینه پردازش میکند و بعد چت را شروع میکنید.
داشبورد کاربردی چه اطلاعاتی میدهد؟
- وضعیت پردازش هر فایل تازهآپلودشده
- تعداد تگهای AIخورده
- تاریخچهی قابل جستوجو از همهی سندهای آنالیزشده
چرا سراغ LLM محلی رفتم؟
| موضوع | راهحل ابری | Ollama محلی |
| هزینه ماهانه | 30–50 دلار | 0 تومان |
| سرعت پاسخ | 2–10 ثانیه | کمتر از 2 ثانیه |
| حریم خصوصی | ارسال داده به سرور | کاملاً محلی |
سختافزار مورد نیاز
کارت گرافیک Nvidia سری 30 یا بالاتر با حداقل ۶GB حافظهی گرافیکی برای اجرای مدلهای 7B-8B کافی است؛ رم سیستم ۱۶GB هم توصیه میشود.
مراحل نصب در ۳ خط
- Ollama را نصب کنید:
curl -fsSL https://ollama.ai/install.sh | sh - مدل مورد نظر را بکشید:
ollama pull llama3.1:8b - کانتینر Paperless AI را اجرا کنید و آدرس Ollama را در تنظیمات وارد نمایید.
نکتهی طلایی برای کاربران تازهکار
در روزهای اول، فایلهای ۲۰۰–۳۰۰تایی را یکجا آپلود نکنید؛ ابتدا ۵۰ فایل بدهید تا LLM پردازش اولیه را تمام کند، بعد بقیه را اضافه کنید تا بار CPU و GPU منفجر نشود.
جمعبندی
با این ترکیب، دیگر وقتتان صرف چرخیدن بین پوشهها نمیشود. فقط سؤال میپرسید، پاسخ دقیق و خلاصهشده میگیرید و آرشیو همیشه بهروز و قابل جستوجو باقی میماند.
