ساخت رسید با چتجیپیتی؛ پای هوش مصنوعی به جعل اسناد باز شد
چتجیپیتی اخیرا قابلیت جدیدی در مدل ۴۰ خود معرفی کرده که توانایی تولید متن در تصاویر را به شکل طبیعی دارد.

این ویژگی جدید، اگرچه از نظر فنی یک پیشرفت محسوب میشود، اما نگرانیهایی درباره سوءاستفاده از آن به وجود آورده است. کاربران مختلف گزارش دادهاند که از این ابزار برای ایجاد رسیدهای جعلی استفاده شده است، موضوعی که میتواند دست کلاهبرداران را برای تقلبهای مالی و فریب افراد باز بگذارد.
یکی از اولین نمونههای این موضوع را «دیدی داس»، سرمایهگذار و کاربر فعال شبکههای اجتماعی، در ایکس منتشر کرد. او تصویری از یک رسید جعلی مربوط به یک استیکهاوس در سانفرانسیسکو را به اشتراک گذاشت که به گفته او، با استفاده از مدل جدید چتجیپیتی ساخته شده بود. در فرانسه نیز کاربری در لینکدین تصویری از یک رسید چروکدار جعلی منتشر کرد که شباهت زیادی به نسخههای واقعی داشت.
در واکنش به این اتفاقات، «رتینا کریستینسون»، سخنگوی OpenAI، تأکید کرد که تمام تصاویری که با چتجیپیتی تولید میشوند، شامل متادیتایی هستند که نشان میدهد این تصاویر با هوش مصنوعی ساخته شدهاند. او همچنین اعلام کرد که این شرکت در صورت مشاهده سوءاستفاده از مدلهای خود، اقدامات لازم را انجام خواهد داد.
با افزایش دقت و کیفیت تولید تصاویر توسط هوش مصنوعی، بحثهای پیرامون چگونگی کنترل و نظارت بر این فناوریها داغتر شده است. در حالی که OpenAI بر تعهد خود به امنیت کاربران تأکید دارد، این پرسش همچنان مطرح است که آیا هوش مصنوعی، علیرغم تمام مزایای خود، میتواند به ابزاری برای فریبکاری تبدیل شود؟