خلاصه
LexusNexis که سالها تنها پایگاه داده حقوقی بود، حالا با ابزار «پرُتِژه» میخواهد تحقیق، نگارش و استدلال حقوقی را نیز به هوش مصنوعی بسپارد. مدیرعامل شرکت ادعا میکند همه خروجیهای این سیستم «قابل استناد» و «بهروز» هستند، اما در گفتوگوی طولانی با نیلای پاتل به چالشهای بزرگی هم اعتراف میکند: از خطای توهمگونه گرفته تا زنگ خطر برای نظام کارآموزی و امکان تصمیمگیری قضات صرفاً با تکیه بر دادههای ماشین.
مقدمه
اگر وکیل باشید، احتمالاً هر روز سراغ LexisNexis میروید؛ همانطور که نفس کشیدن برای زنده ماندن ضروری است. اکنون این شرکت میخواهد با هوش مصنوعی جای قاضی، وکیل تازهکار و حتی سبک نگارش دادگاه را هم بگیرد؛ ادعایی که میتواند هم انقلابی در حقوق باشد و هم تهدیدی برای دقت و عدالت.
LexisNexis چیست و چرا سراغ AI رفته؟
تغییر هویت از کتابخانه دیجیتال به «شرکت AI»
در گذشته LexisNaxsis فقط یک جعبه جستوجوی مقررات و رأی دادگاه بود. امروز شان فیتزپاتریک آن را «ارائهدهنده راهکارهای AI برای وکلای شرکتها، دولت و دادگاه» معرفی میکند تا رؤیای اتوماسیون کامل پروندههای حقوقی را محقق کند.
مشکل چیست؟
- توهم قانونی: چندین وکیل و حتی دو قاضی به دلیل استناد به آرای خیالی که ChatGPT ساخته جریمه یا از مقام عزل شدند.
- سیستم کارآموزی در خطر: اگر نوشتن دادخواست، تحقیق و خلاصهنویسی به ماشین سپرده شود، وکلای جوان دیگر تجربه عملی لازم برای تفکر حقوقی کسب نمیکنند.
- قضازدگی ماشینی: برخی قضات محافظهکار از هوش مصنوعی برای اثبات «نظریه اصالتگرایی» و تغییر معنای قوانین تاریخی استفاده میکنند؛ موضوعی که حقوق شهروندی را بهطور مستقیم هدف گرفته است.
راهکار LexisNexis چیست؟
Protégه چطور ادعا میکند دقیق است؟
- پایگاه ۱۶۰ میلیارد سند واقعی و «شِیَپَردایز» (اعتبارسنجی مستمر آرای دادگاه)
- کارشناسان حقوقی رسمی که خروجی هر مدل را بازبینی میکنند؛ تیمی که به گفته مدیرعامل بزرگتر از تیم مهندسی شده است.
- شفافیت منطق پاسخ: وکیل میتواند ببیند کدام قانون یا رأی در کدام مرحله چه تأثیری داشته و در صورت لزوم اصلاح کند.
- امنیت و حفظ attorney-client privilege بهجای آپلود آزاد اطلاعات در نسخههای عمومی GPT
چالشهای باقیمانده
۱. مرز اتوماسیون کجاست؟
Protégه همین حالا میتواند ۷۰۰ سؤال بازجویی بنویسد، لایحه استرداد یا درخواست مهلت بسازد؛ ولی هنوز دکمه «تسلیم خودکار به دادگاه» ندارد. فیتزپاتریک میگوید «همیشه انسان باید نهایی کند»، اما اعتراف میکند فشار مشتریان برای حذف کامل دست انسان رو به افزایش است.
۲. چه کسی پاسخگوی خطاست؟
پرُتژه اگر روزی رأیی غلط استخراج کند، وکیل باید جریمه شود یا شرکت؟ تا امروز همه جریمهها متوجه وکلای بیاحتیاط بوده؛ LexisNexis هنوز سیاست جبران خسارت روشنی اعلام نکرده است.
۳. خطر استدلال «آجر بیطرف»
مدیرعامل میگوید «ما فقط آجر میسازیم؛ میتوان با آن بیمارستان ساخت یا شیشه شکست». همین استدلال سالها پیش در شبکههای اجتماعی تکرار شد و منتقدان معتقدند در برابر سوءاستفاده از ابزار حقوقی برای بازنویسی قانون اساسی باید محدودیت تعریف کرد.
پرسش سرنوشتساز: ۱۴مین اصلاحیه
وقتی در پادکست از پرُتژه پرسیده میشود «آیا ۱۴مین اصلاحیه بهطور خودکار شهروندی را به هر کسی که در خاک ایالات متحده به دنیا میآید میدهد؟» پاسخ میدهد:
«بله، با استثنای اندک دیپلماتها و نیروهای متخاصم؛ هیچ پروندهای وجود ندارد که این نظر را نقض کرده باشد.»
در حالی که دولت ترامپ تلاش میکند با استدلال «جزئی بهزیرِ حاکمیت» شهروندی را محدود کند، همین پاسخ روشن نشان میدهد هوش مصنوعیِ LexisNexis بر اساس آرای موجود، نظر مخالف دولت را تقویت میکند؛ جایی که ممکن است فشار سیاسی برای تغییر پایگاه داده یا الگوریتم افزایش یابد.
آینده کوتاهمدت
- افزایش ۱۰۰٪ استفاده حرفهای از هوش مصنوعی در دو سال آینده
- ظهور نقش «بازرس AI» در دادگاهها برای کشف استنادات جعلی
- احتمال لغو مجوز اولین وکیل بهدلیل استناد به rulings ساختگی تا پایان ۲۰۲۵
نتیجهگیری
LexisNexis میگوید فقط «اطلاعات درست» میدهد و تصمیم با انسان است؛ اما وقتی ابزار بتواند تحقیق، استدلال و نگارش را یکجا انجام دهد، مرز میان «کمک» و «جایگزینی» باریک میشود. اگر قوه قضائی بهجای تمرین تفکر حقوقی، به خلاصهخوانی متن ماشین اکتفا کند، دیگر نه وکیل جوان یاد میگیرد و نه قاضی مسئول خواهد بود. درستی یا نادرستی این آینده بستگی دارد به اینکه حرفه حقوقی اکنون تصمیم بگیرد کدام بخش از کار را به ماشین بسپارد و کدام بخش را فدای سرعت و صرفهجویی نکند.
