پای ChatGPT در کفش دستگاه قضایی بریتانیا!
به گزارش مطب نما، قضات انگلستان و ولز می توانند از ChatGPT در احکام حقوقی خود استفاده نمایند اما به آنها اخطار داده شده که مراقب باشند چونکه این فناوری مستعد تشکیل دادن پرونده های جعلی است.
به گزارش مطب نما به نقل از ایسنا و به نقل از دیلی میل، زمانی که یک جنایت کار متوجه می شود که باید زندگی خویش را پشت میله های زندان سپری کند، یکی از حیاتی ترین لحظات هر پرونده قضایی است اما به رغم اهمیت حکم قاضی، این حکم -حداقل تا حدودی- در ChatGPT بارگذاری می شود.
قضات در انگلستان و ولز می توانند از چت بات هوش مصنوعی برای مساعدت با نوشتن احکام حقوقی خود بهره گیرند. این در حالیست که ChatGPT مستعد ساخت موارد جعلی شناخته شده و حتی اعتراف کرده که می تواند در صفحه فرود خود اشتباه کند.
استفاده از چت بات ChatGPT که قبلا ازطریق یک قاضی بریتانیایی خیلی سودمند توصیف شده بود، بطور فزاینده ای در عرصه حقوقی نفوذ کرده و سبب نگرانی تعدادی از کارشناسان شده است. دستورالعمل رسمی جدید «دفتر قضایی بریتانیا» که برای هزاران قاضی صادر گردیده است، خاطرنشان کرده که هوش مصنوعی را می توان برای خلاصه کردن مقادیر زیادی متن یا در کارهای اداری مورد استفاده قرار داد. این دستورالعمل ها به عنوان وظایف کاری اساسی، واجد شرایط هستند اما بخش های برجسته تر این پروسه مانند انجام دادن بررسی ها یا تحلیل های حقوقی نباید در چت بات ها بارگذاری شوند.
قاضی «سر جفری چارلز ووس»(Sir Geoffrey Charles Vos) اظهار داشت: هوش مصنوعی فرصت های قابل توجهی را برای توسعه یک سیستم عدالت دیجیتال بهتر، سریع تر و مقرون به صرفه تر عرضه می دهد. فناوری فقط رو به جلو حرکت می کند و دستگاه قضا باید بفهمد چه اتفاقی درحال رخ دادن است.
این در حالیست که اعتراف شده این فناوری مستعد تشکیل دادن پرونده های جعلی است و امکان دارد به شکل گسترده توسط عموم هنگام عرضه دادن پرونده های حقوقی مورد استفاده قرار بگیرد. ووس افزود: قضات مانند هر شخص دیگری باید کاملا آگاه باشند که هوش مصنوعی می تواند پاسخ های نادرست و همین طور پاسخ های دقیق بدهد.
همچنین، به قضات در مورد نشانه هایی اخطار داده شده است که ثابت می کنند شاید استدلال های قانونی ازطریق یک چت بات هوش مصنوعی تهیه شده باشند.
ووس که رئیس دادگستری مدنی در انگلستان و ولز است، اظهار داشت که راهنمایی گرفتن از چت بات، اولین نمونه در نوع خود در عرصه قضایی محسوب می شود. او قبل از انتشار این دستورالعمل در یک جلسه توجیهی به خبرنگاران اظهار داشت: هوش مصنوعی فرصت های بزرگی را برای سیستم قضایی فراهم می آورد اما از آنجائیکه بسیار جدید است، ما باید مطمئن شویم که قضات در همه سطوح متوجه می شوند چه کاری انجام می دهد، چگونه آنرا انجام می دهد و چه کاری را نمی تواند انجام دهد.
«سانتیاگو پاز»(Santiago Paz) یکی از اعضای شرکت حقوقی «دنتونز»(Dentons)، خواهان استفاده مسئولانه از ChatGPT توسط وکلا شده است. پاز اظهار داشت: باآنکه پاسخ های ChatGPT می توانند قانع کننده به نظر برسند اما حقیقت این است که قابلیت های این پلت فرم هنوز بسیار محدود هستند. وکلا باید بدانند که ChatGPT کارشناس حقوقی نیست.
«ییگر گلوسینا»(Jaeger Glucina) رئیس کارکنان شرکت حقوقی «لومینانس»(Luminance) اظهار داشت: نمی توان به مدلهای مولد هوش مصنوعی مانند ChatGPT به عنوان منبع واقعیت اعتماد کرد. باید آنها را به عنوان یک دوست آگاه در نظر گرفت، نه یک متخصص در همه زمینه های خاص. اداره قضایی باتوجه به کارآمدی ChatGPT برای کارهای ساده و مبتنی بر متن مانند تولید خلاصه پرونده و در عین حال اخطار دادن در مورد استفاده از آن برای کارهای تخصصی تر، به خوبی این مساله را تشخیص داده است.
«نیک امرسون»(Nick Emmerson) رئیس انجمن حقوقی بریتانیا اظهار داشت: استفاده کردن از هوش مصنوعی برای خلاصه کردن قضاوت ها می تواند کارآیی دادگاه را بهبود ببخشد اما در عین حال می تواند اشتباه کند. مدلهای زبانی آموزش دیده می توانند سوگیری ها را در داده های زیربنایی منعکس کنند. مهمست که به یاد داشته باشیم قضات، نقش انسانی مهمی را در اختیار دارند و تصمیم گیری قضایی آنها را نمی توان با ماشین جایگزین کرد.
قاضی بریتانیایی که پیش تر ChatGPT را خیلی سودمند توصیف کرده بود، اعتراف کرد که از آن هنگام نوشتن حکم دادگاه تجدید نظر بهره برده است. «کالین بیرس»(Colin Birss) قاضی دادگاه تجدیدنظر انگلستان و ولز اظهار داشت که او از چت بات در یک حوزه حقوقی بهره برده که با آن آشناست.
یک قاضی کلمبیایی در استفاده کردن از ChatGPT فراتر رفت و از آن برای تصمیم گیری کمک گرفت.
بیشتر بخوانید:
ChatGPT به قاضی کلمبیایی برای صدور حکم کمک کرد
چت بات هایی مانند ChatGPT و «بارد»(Bard) گوگل که رقیب اصلی آنست، برای یادگیری چند واقعیت ساده مفید هستند اما اتکای بیش از حد به این فناوری می تواند بطور قابل توجهی برای کاربران نتیجه معکوس داشته باشد.
در اوایل امسال، یک وکیل نیویورکی به سبب ارسال یک گزارش حاوی خطا که با بهره گیری از ChatGPT تهیه کرده بود، به دردسر افتاد. «استیون شوارتز»(Steven Schwartz) یک گزارش ۱۰ صفحه ای حاوی حداقل شش پرونده کاملا ساختگی را به عنوان قسمتی از شکایت ضد شرکت هواپیمایی «اویانکا»(Avianca) ارسال کرد.
شوارتز اظهار داشت که از اتکای خود به ربات، بسیار متأسف است و از احتمال نادرست بودن محتوای آن ناآگاه بوده است.
منبع: مطب نما
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب