یک وکیل پس از استفاده از ChatGPT برای نوشتن خلاصه ای مملو از نقل قول های جعلی با تحریم قضایی روبرو شد

استیون شوارتز “از احتمال نادرست بودن محتوای [ChatGPT] آگاه نبود.”

با توجه به اینکه در ماه‌های اخیر هیاهوی هوش مصنوعی به اوج خود رسیده است، بسیاری از مردم می‌ترسند برنامه‌هایی مانند ChatGPT روزی آنها را بیکار کند. برای یک وکیل نیویورکی، آن کابوس می تواند زودتر از آنچه انتظار می رفت به واقعیت تبدیل شود، اما نه به دلایلی که ممکن است فکر کنید. همانطور که نیویورک تایمز گزارش داد، استیون شوارتز، وکیل شرکت حقوقی Levidow، Levidow و Oberman اخیراً برای کمک به نوشتن یک خلاصه حقوقی به چت ربات OpenAI مراجعه کردند که نتایج قابل پیش بینی فاجعه‌باری داشت.

ChatGPT

شرکت شوارتز از شرکت هواپیمایی کلمبیایی آویانکا به نمایندگی از روبرتو ماتا شکایت کرده است که ادعا می کند در پروازی به فرودگاه بین المللی جان اف کندی در شهر نیویورک مجروح شده است.

زمانی که شرکت هواپیمایی اخیراً از یک قاضی فدرال خواست تا این پرونده را رد کند، وکلای ماتا یک گزارش مختصر 10 صفحه ای ارائه کردند و استدلال کردند که چرا باید این شکایت ادامه یابد. در این سند به بیش از نیمی از تصمیمات دادگاه اشاره شده است، از جمله “وارگهس علیه خطوط هوایی جنوبی چین”، “مارتینز علیه خطوط هوایی دلتا” و “میلر علیه خطوط هوایی متحده”.

متأسفانه برای همه درگیران، هیچ کس که خلاصه را خواند نتوانست هیچ یک از تصمیمات دادگاهی را که وکلای ماتا به آنها استناد کرده است بیابد. چرا؟ زیرا ChatGPT همه آنها را ساخته است. اوه

شوارتز در سوگندنامه ای که روز پنجشنبه ارائه شد، گفت که از چت بات برای تکمیل تحقیقات خود برای این پرونده استفاده کرده است. شوارتز نوشت که “از احتمال نادرست بودن محتوای [ChatGPT] بی اطلاع است.” او حتی اسکرین شات هایی را به اشتراک گذاشت که نشان می داد از ChatGPT پرسیده است که آیا موارد ذکر شده واقعی هستند یا خیر.

شوارتز گفت که از استفاده از ChatGPT «بسیار پشیمان است» و هرگز در آینده بدون تأیید صحت آن، این کار را انجام نخواهد داد. اینکه آیا او فرصت دیگری برای نوشتن یک خلاصه حقوقی دارد یا خیر، معلوم نیست.

قاضی ناظر بر این پرونده دستور داد تا در 8 ژوئن جلسه ای را برای بحث در مورد تحریم ها و عواقب احتمالی برای “شرایط بی سابقه” ایجاد شده توسط اقدامات شوارتز برگزار کند.

نشر:

ویرایش:


نظرات…

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *