اما در واقعیت اوضاع چندان بد نیست. اولاً، برای ایجاد صدای مصنوعی در ElevenLabs حدود پنج دقیقه ضبط صدا طول میکشد، بنابراین یک «بله» ساده کافی نیست. ثانیاً، بانکها نیز در مورد این کلاهبرداریها میدانند، بنابراین از صدا فقط میتوان برای شروع عملیات خاصی استفاده کرد که به انتقال وجه مربوط نمیشود (مثلاً برای بررسی موجودی حساب شما). بنابراین پول را نمی توان از این طریق دزدید.
به اعتبار خود، ElevenLabs با بازنویسی قوانین سرویس، ممنوع کردن کاربران رایگان (به عنوان مثال، ناشناس) از ایجاد دیپفیک بر اساس صدای آپلود شده خود، و مسدود کردن حسابهای دارای شکایت درباره «محتوای توهینآمیز» به این مشکل واکنش نشان داد.
اگرچه این اقدامات ممکن است مفید باشند، اما هنوز مشکل استفاده از دیپفیکهای صوتی برای اهداف مشکوک را حل نمیکنند.
چگونه از دیپ فیک ها در کلاهبرداری استفاده می شود
فناوری Deepfake به خودی خود بی ضرر است، اما در دست کلاهبرداران می تواند به ابزار خطرناکی با فرصت های زیادی برای فریب، افترا یا اطلاعات نادرست تبدیل شود. خوشبختانه، هیچ مورد انبوهی از کلاهبرداری شامل تغییر صدا وجود نداشته است، اما چندین مورد با مشخصات بالا مربوط به دیپ جیک صدا وجود داشته است.
در سال 2019، کلاهبرداران از این فناوری برای از بین بردن شرکت انرژی مستقر در بریتانیا استفاده کردند. در یک مکالمه تلفنی، کلاهبردار وانمود کرد که مدیر اجرایی شرکت مادر آلمانی شرکت است و درخواست واریز فوری 220000 یورو (243000 دلار) به حساب یک شرکت تامین کننده خاص کرد. پس از پرداخت، کلاهبردار دو بار دیگر تماس گرفت – بار اول برای اینکه کارکنان دفتر بریتانیا را راحت کند و گزارش دهد که شرکت مادر قبلاً مبلغی را بازپرداخت کرده است و بار دوم برای درخواست انتقال دیگر. هر سه بار، مدیرعامل بریتانیا کاملاً مثبت بود که با رئیس خود صحبت می کرد زیرا هم لهجه آلمانی و هم لحن و نحوه گفتار او را تشخیص می داد. انتقال دوم فقط به این دلیل ارسال نشد که کلاهبردار به هم ریخته و به جای شماره آلمانی از یک شماره اتریشی تماس گرفت و این امر سئوی بریتانیا را مشکوک کرد.
یک سال بعد، در سال 2020، کلاهبرداران از دیپ فیک برای سرقت تا 35،000،000 دلار از یک شرکت ژاپنی ناشناس استفاده کردند (نام شرکت و مقدار کل کالاهای دزدیده شده توسط تحقیقات فاش نشد).
مشخص نیست که کلاهبرداران از کدام راهحلها (منبع باز، پولی یا حتی خودشان) برای جعل صداها استفاده کردهاند، اما در هر دو مورد بالا، شرکتها به وضوح – به شدت – از کلاهبرداری عمیق متحمل شدند.
بعد چی؟
نظرات در مورد آینده دیپ فیک متفاوت است. در حال حاضر بیشتر این فناوری در دست شرکت های بزرگ است و در دسترس بودن آن برای عموم محدود است. اما همانطور که تاریخچه مدلهای تولیدی بسیار محبوبتری مانند DALL-E، Midjourney و Stable Diffusion نشان میدهد، و حتی بیشتر از آن با مدلهای زبان بزرگ (ChatGPT هر کسی؟)، فناوریهای مشابه ممکن است در آینده قابل پیشبینی در حوزه عمومی ظاهر شوند. این موضوع با افشای مکاتبات داخلی گوگل تأیید میشود که در آن نمایندگان این غول اینترنتی میترسند رقابت هوش مصنوعی برای راهحلهای باز را از دست بدهند. این بدیهی است که منجر به افزایش استفاده از دیپ فیک های صوتی – از جمله برای کلاهبرداری می شود.
امیدوارکننده ترین گام در توسعه دیپ فیک، تولید بلادرنگ است که رشد انفجاری دیپ فیک ها (و تقلب بر اساس آنها) را تضمین می کند. آیا می توانید تماس تصویری با فردی که صورت و صدایش کاملا جعلی است را تصور کنید؟ با این حال، این سطح از پردازش دادهها به منابع عظیمی نیاز دارد که فقط در اختیار شرکتهای بزرگ است، بنابراین بهترین فناوریها خصوصی باقی میمانند و کلاهبرداران نمیتوانند با حرفهایها همگام شوند. نوار با کیفیت بالا همچنین به کاربران کمک می کند یاد بگیرند که چگونه به راحتی تقلبی ها را شناسایی کنند.
چگونه از خود محافظت کنید
اکنون به سوال اول خود برگردیم: آیا میتوانیم به صداهایی که میشنویم اعتماد کنیم (یعنی اگر صداهایی در ذهن ما نیستند)؟ خوب، اگر دائماً پارانوئید باشیم و شروع به پیدا کردن کلمات رمز مخفی برای استفاده با دوستان و خانواده کنیم، احتمالاً زیاده روی می کنیم. با این حال، در موقعیت های جدی تر، چنین پارانویایی ممکن است مناسب باشد. اگر همه چیز بر اساس سناریوی بدبینانه توسعه یابد، فناوری دیپفیک در دست کلاهبرداران میتواند به سلاحی قدرتمند در آینده تبدیل شود، اما هنوز زمان برای آماده شدن و ایجاد روشهای قابل اعتماد برای محافظت در برابر جعل وجود دارد: در حال حاضر تحقیقات زیادی در مورد دیپفیکها انجام شده است. و شرکت های بزرگ در حال توسعه راه حل های امنیتی هستند. در واقع، ما قبلاً در اینجا به طور مفصل در مورد روش های مبارزه با دیپ فیک ویدیو صحبت کرده ایم.
در حال حاضر، محافظت در برابر تقلبی های هوش مصنوعی تازه شروع شده است، بنابراین مهم است که به خاطر داشته باشید که دیپ فیک ها نوع دیگری از مهندسی اجتماعی پیشرفته هستند. خطر مواجهه با کلاهبرداری مانند این اندک است، اما هنوز وجود دارد، بنابراین ارزش دانستن و در نظر گرفتن آن را دارد. اگر تماس عجیبی دریافت کردید، به کیفیت صدا توجه کنید. آیا یکنواختی غیرطبیعی دارد، آیا نامفهوم است یا صداهای عجیبی وجود دارد؟ همیشه اطلاعات را از طریق کانال های دیگر بررسی کنید و به یاد داشته باشید که غافلگیری و وحشت چیزی است که کلاهبرداران بیشتر به آن تکیه می کنند.
ترجمه:
پیشگامان تجارت امن ایرانیان