
جنجال ساخت رسیدهای جعلی غیرقابل تشخیص با «ChatGPT»

اوپنایآی بهعنوان بخشی از مدل زبانی 4o، ابزار ساخت تصویر جدیدی برای ChatGPT معرفی کرد که توانایی چشمگیر و نگرانکنندهای در تولید رسیدهای پرداخت جعلی دارد.
به گزارش اقتصادآنلاین به نقل از زومیت، کاربران از همین حالا از قابلیت مذکور برای ساخت رسیدهای جعلی خرید خود استفاده میکنند؛ ابزاری که میتواند به مجموعهی گستردهی فناوریهای دیپفیک مبتنیبر هوش مصنوعی اضافه شود و به کلاهبرداران کمک کند.
دیدی داس، یکی از کاربران فعال شبکههای اجتماعی و سرمایهگذار ریسکپذیر، تصویری از یک رسید جعلی در شبکهی اجتماعی ایکس منتشر کرد و مدعی شد که این تصویر با مدل 4o ساخته شده است.
کاربران نمونههای دیگری را هم در صفحات شخصی خود به اشتراک گذاشتهاند. تصاویر رسیدها بسیار واقعی بهنظر میرسند و تشخیص جعلیبودن آنها به سادگی امکانپذیر نیست.
با نگاهی دقیقتر به رسیدها میتوان به یکسری گافها پی برد؛ مثلا در مبلغ نهایی بهجای نقطه از ویرگول استفاده شده یا محاسبات درست نیست. مدلهای زبانی بزرگ همچنان در انجام محاسبات پایهای مشکل دارند؛ البته برای یک کلاهبردار کار سختی نخواهد بود که چند عدد را با استفاده از نرمافزارهای ویرایش تصویر یا حتی دستورات دقیقتر اصلاح کند.
کاملاً واضح است که سهولت در ایجاد رسیدهای جعلی میتواند فرصتهای بزرگی برای کلاهبرداری ایجاد کند. تصور اینکه افراد سودجو از هوش مصنوعی برای ساخت رسید تراکنشهای انجامنشده استفاده کنند، دشوار نیست.
تایا کریستینسون، سخنگوی OpenAI، اعلام کرد که تمام تصاویری که با ChatGPT تولید میشوند، دارای متادیتایی هستند که نشان میدهد این تصاویر ساختهی هوش مصنوعی هستند. او افزود که OpenAI در صورت نقض سیاستهای استفاده، اقداماتی را انجام میدهد و همواره از بازخورد کاربران و کاربردهای دنیای واقعی درس میگیرد.