خطاها و توهمات هوش مصنوعی در کدنویسی، ایجاد اتهام و استنادات قانونی
اخبار داغ فناوری اطلاعات و امنیت شبکه
هوش مصنوعی مستعد ایجاد خطا است و این خطاها هم خودشان را نشان داده و هم در حال حاضر مورد اعتراض قرار گرفته اند.
خطاها و توهمات ChatGPT
محققان Vulcan Cyber هشدار میدهند که مهاجمان میتوانند از ChatGPT برای فریب توسعهدهندگان برای نصب پکیجهای مخرب استفاده کنند.
محققان با اشاره به اینکه توسعهدهندگان شروع به استفاده از ChatGPT برای کمک به کدنویسی کردهاند، میگویند: "طبق مشاهدات، ChatGPT URLها، مراجع و حتی لایبرریهای کد و فانکشنی تولید میکند که درواقع وجود ندارند." چنین مقالاتی همان "خطاها و توهمات" هستند. محققان اینطور ادامه میدهند: "این خطاهای LLM (مدل زبان بزرگ یا Large Language Model) قبلا گزارش شده است و ممکن است نتیجه دادههای آموزشی قدیمی باشد. اگر ChatGPT در حال ساخت لایبرریهای کد (پکیجها) باشد، مهاجمان میتوانند از این خطاها برای انتشار پکیجهای مخرب بدون استفاده از تکنیکهای نامآشنا مانند typosquatting یا maskareding استفاده کنند. این تکنیکها مشکوک هستند و از قبل قابل تشخیص هستند. اما اگر مهاجم بتواند پکیجی را برای جایگزینی پکیجهای «جعلی» توصیهشده توسط ChatGPT ایجاد کند، ممکن است بتواند قربانی را وادار به دانلود و استفاده از آن کند."
مایک مایر، مدیرعامل Quiq، مشاهدات زیر را ارائه کرد: "مدلهای زبان بزرگ خطر و محدودیتهایی را برای شرکتها به همراه دارند. خروجیها میتوانند مغرضانه، اشتباه و یا بهظاهر اختراع شده باشند. ما شاهد علاقه بسیاری از برندهایی هستیم که میخواهند از ChatGPT استفاده کنند اما نمیدانند چگونه آن را در داخل انجام دهند. هیچ شرکتی نمیتواند از پس کابوس حقوقی و روابط عمومی ناشی از ارائه پاسخهای اشتباه به مشتریان خود برآید."
وی میافزاید: "با این حال مشکل بزرگتر این است که ChatGPT فقط اطلاعاتی را میداند که بهصورت عمومی در اینترنت در دسترس هستند. نمایندگان خدمات مشتری اغلب از اطلاعات محرمانه یک شرکت برای پاسخ به سوالات استفاده میکنند. و برای پاسخ به سوالات خاص حسابهای مشتری، نمایندگان یا باتها به دادههای مشتری نیاز دارند تا از آنها استفاده کنند."
خطاها و توهمات ChatGPT در دعاوی قضایی
به گزارش واحد قانون خبرگزاری بلومبرگ، مجری رادیوی جورجیا، مارک والترز، از OpenAI LLC به دلیل تهمت به وی و پس از اینکه ChatGPT پاسخی را ارائه کرده است که به دروغ گفته است والترز به دلیل کلاهبرداری و اختلاس محکوم شده، شکایت کرده است. نتیجه "خطا" برای روزنامهنگاری بود که پروندهای غیرمرتبط با والترز را پوشش میداد.
در این دادخواست آمده است : «ادعاهای ChatGPT در مورد والترز نادرست و بدخواهانه بود که بهصورت چاپ شده، نوشتاری، تصاویر یا نشانهها بیان شده بود و قصد داشت به شهرت والتر لطمه بزند و او را در معرض نفرت، تحقیر یا تمسخر عمومی قرار دهد. »
به گزارش آسوشیتدپرس، در یک پرونده جداگانه، دو وکیل به دلیل استفاده از تحقیقات حقوقی ساختگی ایجاد شده توسط ChatGPT با تحریمهای احتمالی در منطقه جنوبی نیویورک مواجه هستند. وکیلی که تحقیقات ساختگی را در پرونده دادگاه خود گنجانده بود، عذرخواهی کرد و اظهار داشت که "نمیدانست که ChatGPT میتواند پروندهسازی کند."
برچسب ها: hallucination, مدل زبان بزرگ, maskareding, Coding, کدنویسی, LLM, چتجیپیتی, Large Language Model, OpenAI, ChatGPT, typosquatting, Artificial Intelligence, Library, AI, لایبرری, پکیج, Package, URL, هوش مصنوعی, تهدیدات سایبری, Cyber Security, امنیت سایبری, جنگ سایبری, Cyber Attacks, حمله سایبری, news