به گوش های خود اعتماد نکنید! صدای دیپ فیک (بخش 2)

به گوش های خود اعتماد نکنید! صدای دیپ فیک (بخش 2)

اما در واقعیت اوضاع چندان بد نیست. اولاً، برای ایجاد صدای مصنوعی در ElevenLabs حدود پنج دقیقه ضبط صدا طول می‌کشد، بنابراین یک «بله» ساده کافی نیست. ثانیاً، بانک‌ها نیز در مورد این کلاهبرداری‌ها می‌دانند، بنابراین از صدا فقط می‌توان برای شروع عملیات خاصی استفاده کرد که به انتقال وجه مربوط نمی‌شود (مثلاً برای بررسی موجودی حساب شما). بنابراین پول را نمی توان از این طریق دزدید.

به اعتبار خود، ElevenLabs با بازنویسی قوانین سرویس، ممنوع کردن کاربران رایگان (به عنوان مثال، ناشناس) از ایجاد دیپ‌فیک بر اساس صدای آپلود شده خود، و مسدود کردن حساب‌های دارای شکایت درباره «محتوای توهین‌آمیز» به این مشکل واکنش نشان داد.

اگرچه این اقدامات ممکن است مفید باشند، اما هنوز مشکل استفاده از دیپ‌فیک‌های صوتی برای اهداف مشکوک را حل نمی‌کنند.

چگونه از دیپ فیک ها در کلاهبرداری استفاده می شود

فناوری Deepfake به خودی خود بی ضرر است، اما در دست کلاهبرداران می تواند به ابزار خطرناکی با فرصت های زیادی برای فریب، افترا یا اطلاعات نادرست تبدیل شود. خوشبختانه، هیچ مورد انبوهی از کلاهبرداری شامل تغییر صدا وجود نداشته است، اما چندین مورد با مشخصات بالا مربوط به دیپ جیک صدا وجود داشته است.

در سال 2019، کلاهبرداران از این فناوری برای از بین بردن شرکت انرژی مستقر در بریتانیا استفاده کردند. در یک مکالمه تلفنی، کلاهبردار وانمود کرد که مدیر اجرایی شرکت مادر آلمانی شرکت است و درخواست واریز فوری 220000 یورو (243000 دلار) به حساب یک شرکت تامین کننده خاص کرد. پس از پرداخت، کلاهبردار دو بار دیگر تماس گرفت – بار اول برای اینکه کارکنان دفتر بریتانیا را راحت کند و گزارش دهد که شرکت مادر قبلاً مبلغی را بازپرداخت کرده است و بار دوم برای درخواست انتقال دیگر. هر سه بار، مدیرعامل بریتانیا کاملاً مثبت بود که با رئیس خود صحبت می کرد زیرا هم لهجه آلمانی و هم لحن و نحوه گفتار او را تشخیص می داد. انتقال دوم فقط به این دلیل ارسال نشد که کلاهبردار به هم ریخته و به جای شماره آلمانی از یک شماره اتریشی تماس گرفت و این امر سئوی بریتانیا را مشکوک کرد.

یک سال بعد، در سال 2020، کلاهبرداران از دیپ فیک برای سرقت تا 35،000،000 دلار از یک شرکت ژاپنی ناشناس استفاده کردند (نام شرکت و مقدار کل کالاهای دزدیده شده توسط تحقیقات فاش نشد).

مشخص نیست که کلاهبرداران از کدام راه‌حل‌ها (منبع باز، پولی یا حتی خودشان) برای جعل صداها استفاده کرده‌اند، اما در هر دو مورد بالا، شرکت‌ها به وضوح – به شدت – از کلاهبرداری عمیق متحمل شدند.

بعد چی؟

نظرات در مورد آینده دیپ فیک متفاوت است. در حال حاضر بیشتر این فناوری در دست شرکت های بزرگ است و در دسترس بودن آن برای عموم محدود است. اما همانطور که تاریخچه مدل‌های تولیدی بسیار محبوب‌تری مانند DALL-E، Midjourney و Stable Diffusion نشان می‌دهد، و حتی بیشتر از آن با مدل‌های زبان بزرگ (ChatGPT هر کسی؟)، فناوری‌های مشابه ممکن است در آینده قابل پیش‌بینی در حوزه عمومی ظاهر شوند. این موضوع با افشای مکاتبات داخلی گوگل تأیید می‌شود که در آن نمایندگان این غول اینترنتی می‌ترسند رقابت هوش مصنوعی برای راه‌حل‌های باز را از دست بدهند. این بدیهی است که منجر به افزایش استفاده از دیپ فیک های صوتی – از جمله برای کلاهبرداری می شود.

امیدوارکننده ترین گام در توسعه دیپ فیک، تولید بلادرنگ است که رشد انفجاری دیپ فیک ها (و تقلب بر اساس آنها) را تضمین می کند. آیا می توانید تماس تصویری با فردی که صورت و صدایش کاملا جعلی است را تصور کنید؟ با این حال، این سطح از پردازش داده‌ها به منابع عظیمی نیاز دارد که فقط در اختیار شرکت‌های بزرگ است، بنابراین بهترین فناوری‌ها خصوصی باقی می‌مانند و کلاهبرداران نمی‌توانند با حرفه‌ای‌ها همگام شوند. نوار با کیفیت بالا همچنین به کاربران کمک می کند یاد بگیرند که چگونه به راحتی تقلبی ها را شناسایی کنند.

چگونه از خود محافظت کنید

اکنون به سوال اول خود برگردیم: آیا می‌توانیم به صداهایی که می‌شنویم اعتماد کنیم (یعنی اگر صداهایی در ذهن ما نیستند)؟ خوب، اگر دائماً پارانوئید باشیم و شروع به پیدا کردن کلمات رمز مخفی برای استفاده با دوستان و خانواده کنیم، احتمالاً زیاده روی می کنیم. با این حال، در موقعیت های جدی تر، چنین پارانویایی ممکن است مناسب باشد. اگر همه چیز بر اساس سناریوی بدبینانه توسعه یابد، فناوری دیپ‌فیک در دست کلاهبرداران می‌تواند به سلاحی قدرتمند در آینده تبدیل شود، اما هنوز زمان برای آماده شدن و ایجاد روش‌های قابل اعتماد برای محافظت در برابر جعل وجود دارد: در حال حاضر تحقیقات زیادی در مورد دیپ‌فیک‌ها انجام شده است. و شرکت های بزرگ در حال توسعه راه حل های امنیتی هستند. در واقع، ما قبلاً در اینجا به طور مفصل در مورد روش های مبارزه با دیپ فیک ویدیو صحبت کرده ایم.

در حال حاضر، محافظت در برابر تقلبی های هوش مصنوعی تازه شروع شده است، بنابراین مهم است که به خاطر داشته باشید که دیپ فیک ها نوع دیگری از مهندسی اجتماعی پیشرفته هستند. خطر مواجهه با کلاهبرداری مانند این اندک است، اما هنوز وجود دارد، بنابراین ارزش دانستن و در نظر گرفتن آن را دارد. اگر تماس عجیبی دریافت کردید، به کیفیت صدا توجه کنید. آیا یکنواختی غیرطبیعی دارد، آیا نامفهوم است یا صداهای عجیبی وجود دارد؟ همیشه اطلاعات را از طریق کانال های دیگر بررسی کنید و به یاد داشته باشید که غافلگیری و وحشت چیزی است که کلاهبرداران بیشتر به آن تکیه می کنند.

پیام بگذارید

آدرس ایمیل شما منتشر نخواهد شد.