استفاده از هوش مصنوعی در روند دادرسی یک تهدید جدی است و ممکن است مردم را نسبت به سیستم حقوقی بی اعتماد کند.
خبرگزاری علم و فناوری تینو مدرن; هوش مصنوعی در بسیاری از زمینه های زندگی ما از جمله سیستم حقوقی وارد شده و تغییراتی ایجاد کرده است، اما محتوای تولید شده توسط هوش مصنوعی مانند قوانین جعلی نگرانی های زیادی را در دعواهای حقوقی ایجاد کرده است.
دادگاه ها برای تشکیل پرونده های حقوقی به وکلا متکی هستند، اما استفاده از قوانین مصنوعی هوش مصنوعی در اختلافات حقوقی این روند را تضعیف می کند. مدل های هوش مصنوعی روی داده های بزرگ آموزش داده می شوند و قوانین جعلی تولید می کنند. و در صورت درخواست کاربر محتوای متنی، تصویری یا صوتی جدید ایجاد کنید.
اگرچه محتوای تولید شده توسط هوش مصنوعی ممکن است قانع کننده به نظر برسد، اما به دلیل “رویای هوش مصنوعی” می تواند نادرست باشد. این زمانی است که مدل هوش مصنوعی سعی می کند شکاف های موجود در داده های آموزشی خود را پر کند، در نتیجه محتوای نادرست ایجاد می شود که می تواند در اختلافات حقوقی مزاحم شود و منجر به تصمیمات قانونی اشتباه شود.
تعارضات حقوقی هوش مصنوعی
شناخته شده ترین «پرونده جعلی» ایجاد شده توسط هوش مصنوعی به Mata v. Avianca در ایالات متحده در سال 2023، جایی که وکلا خلاصه ای از وقایع و اظهارات نادرست را به دادگاه نیویورک ارایه کردند. خلاصه با استفاده از JPT Chat بررسی شد و وکلای دادگستری، غافل از اینکه نرم افزار می تواند توهم ایجاد کند، نتوانستند آن را تایید کنند. نتایج این تحقیقات فاجعه آمیز بود و پس از کشف اشتباه، دادگاه پرونده موکل آنها را رد کرد، وکیل به دلیل سوء نیت مجازات شد و دفتر حقوقی آنها نیز مجازات شد. اقدامات آنها رسما اعلام شد.
نمونه های معروف
با وجود این اتفاقات منفی، نمونه های دیگری همچنان ادامه دارد. مایکل کوهن، وکیل سابق دونالد ترامپ، از نرم افزار Bard (سازنده هوش مصنوعی) گوگل برای تهیه پرونده های وکیلش استفاده کرد، اما ادعا کرد که این کار خودش و درست است. سایر موارد کلاهبرداری مشابه اخیراً در کانادا و بریتانیا جنجال ایجاد کرده است.
اگر این فرآیند کنترل نشود، استفاده نامحدود از هوش مصنوعی اعتماد عمومی به سیستم حقوقی را تضعیف خواهد کرد. عدم استفاده مستمر از این ابزار توسط وکلا باعث سردرگمی و ازدحام بیش از حد در دادگاه ها می شود، به منافع موکلین لطمه می زند و به طور کلی حاکمیت قانون را تضعیف می کند.
تصاویری از افراد مشهور را دیده ایم که توسط هوش مصنوعی جعل شده اند. هوش مصنوعی همچنین در ساخت موسیقی، رانندگی با اتومبیل های مسابقه ای بدون راننده و انتشار اطلاعات نادرست نقش داشته است. بنابراین تعجب آور نیست که هوش مصنوعی نیز تاثیر زیادی بر سیستم های حقوقی ما دارد.
دادگاه ها در پرونده هایی که از وکلا پیروی می کنند باید بر اساس اطلاعات ارایه شده توسط وکیل تصمیم گیری کنند، بنابراین اگر محتوای پرونده توسط هوش مصنوعی جعل شود، نه تنها مشکلات حقوقی و اخلاقی، بلکه خطرناک نیز خواهد بود. آنها به نظام های حقوقی دنیا اعتقادی ندارند.
قوانین جعلی چگونه ایجاد می شوند؟
شکی نیست که هوش مصنوعی یک ابزار قدرتمند با پتانسیل برای دگرگونی جامعه، از جمله بسیاری از جنبه های سیستم حقوقی است. اما استفاده از آن با مسیولیت و خطراتی همراه است. وکلا برای به کارگیری دانش و تجربه حرفه ای آموزش دیده اند و عموماً ریسک گریز نیستند. با این حال، برخی از وکلای ناآگاه طعمه باگ های هوش مصنوعی شده اند.
اگر هوش مصنوعی محتوای نادرست ایجاد کند یا محتوای نادرستی ایجاد کند که به فرآیندهای قانونی راه پیدا کند، به یک مشکل تبدیل می شود، به خصوص زمانی که شامل فشار بر وکلا یا عدم دسترسی به خدمات حقوقی باشد. این ترکیب مخرب می تواند موجب سهل انگاری و کوتاهی در تحقیقات حقوقی و تهیه اسناد و مشکلاتی برای حرفه وکالت و عدم اعتماد عمومی به اجرای عدالت شود.
فعالیت های جهانی
در سراسر جهان، قانونگذاران و دادگاه ها به این روند واکنش های مختلفی نشان داده اند. بسیاری از دادگاه های ایالتی ایالات متحده دستورالعمل ها، نظرات یا دستوراتی را در مورد استفاده سازنده از هوش مصنوعی صادر کرده اند، از پذیرش مسیولانه تا ممنوعیت های آشکار. انجمن های حقوقی در بریتانیا و دادگاه های بریتیش کلمبیا و نیوزلند نیز دستورالعمل هایی را تدوین کرده اند.
در استرالیا، انجمن وکلای NSW (NSW) یک راهنمای هوش مصنوعی برای وکلای دادگستری دارد و مقالاتی را در مورد استفاده مسیولانه تحت قانون وکلا منتشر کرده است.
بسیاری از وکلا و قضات، مانند عموم مردم، درک خوبی از هوش مصنوعی مولد دارند و می توانند محدودیت ها و مزایای آن را تشخیص دهند. اما افراد دیگری هستند که ممکن است چندان آگاه نباشند و نیاز به راهنمایی داشته باشند.
در این میان، رویکرد باید اجباری باشد: وکلایی که از ابزارهای هوش مصنوعی استفاده می کنند نمی توانند آن را جایگزینی برای قضاوت و دقت خود بدانند و باید صحت و قابلیت اطمینان اطلاعات جمع آوری شده را بررسی کنند.
به طور کلی، هوش مصنوعی پتانسیل تغییر سیستم حقوقی را دارد، استفاده از آن مسیولیت ها و خطراتی را به همراه دارد. ایجاد تعادل بین بهره برداری از مزایای هوش مصنوعی و اطمینان از اینکه استفاده از محتوای تولید شده توسط هوش مصنوعی یکپارچگی سیستم قانونی را تضعیف نمی کند، مهم است.
این گزارش از وبسایت گفتگو ترجمه شده است.
آیا شما به دنبال کسب اطلاعات بیشتر در مورد "صدای پای هوش مصنوعی در دادگاه ها/ سایه جعل نرم افزاری بر پرونده های حقوقی" هستید؟ با کلیک بر روی اجتماعی، آیا به دنبال موضوعات مشابهی هستید؟ برای کشف محتواهای بیشتر، از منوی جستجو استفاده کنید. همچنین، ممکن است در این دسته بندی، سریال ها، فیلم ها، کتاب ها و مقالات مفیدی نیز برای شما قرار داشته باشند. بنابراین، همین حالا برای کشف دنیای جذاب و گسترده ی محتواهای مرتبط با "صدای پای هوش مصنوعی در دادگاه ها/ سایه جعل نرم افزاری بر پرونده های حقوقی"، کلیک کنید.