Seorang pengacara Florida dan kandidat politik dari Partai Demokrat mengklaim bahwa dia adalah target penipuan kloning suara AI yang canggih yang menipu ayahnya agar menyerahkan hampir $35.000.

D New York Post Laporan Jay Schuster, seorang pengacara berusia 34 tahun yang mencalonkan diri untuk Dewan Perwakilan Rakyat Florida sebagai seorang Demokrat, baru-baru ini mendapati dirinya berada di tengah-tengah skandal kloning suara AI yang rumit yang menyebabkan ayahnya kehilangan hampir $35.000. Penipu menggunakan AI untuk mengkloning suara Jay, mungkin menggunakan iklan kampanye TV berdurasi 15 detik sebagai bahan sumber, dan menelepon ayahnya untuk mengklaim bahwa Jay telah ditangkap setelah kecelakaan mobil yang serius dan membutuhkan uang jaminan.

Ayahnya, seorang pensiunan pengacara yang mengunjungi putrinya di New York pada saat itu, yakin bahwa suara histeris di telepon itu memang putranya. Penirunya, yang menyamar sebagai Jay, memohon kepada ayahnya untuk tidak memberi tahu siapa pun tentang situasinya. Segera, seorang pria yang mengidentifikasi dirinya sebagai seorang pengacara meminta jaminan tunai sebesar $35.000 untuk menghindari Penjara menahan Jay selama beberapa hari.

Penipuan ini berubah menjadi tidak lazim ketika pengacara tersebut menginstruksikan Frank untuk membayar obligasi melalui mesin mata uang kripto, sehingga menimbulkan kecurigaan. Baru setelah saudara perempuan Jay dan temannya mengetahui bahwa penipuan kloning suara AI sedang meningkat, dia menyadari ada sesuatu yang tidak beres dan akhirnya menutup telepon.

Jay berspekulasi bahwa para penipu mungkin telah mengkloning suaranya dari iklan kampanye terbarunya atau rekaman video online lainnya. Kecanggihan penipuan ini mengejutkannya, karena ia mencatat bahwa “butuh beberapa detik bagi suara seseorang” untuk menciptakan tiruan teknologi yang kredibel.

Breitbart News telah banyak melaporkan bagaimana penipu memutarbalikkan AI untuk tujuan negatif:

“Kecerdasan buatan generatif semakin banyak digunakan untuk meniru suara seseorang yang Anda kenal dan berkomunikasi dengan Anda secara real time,” kata Jonathan Nelson, direktur manajemen produk di perusahaan analisis telepon dan perangkat lunak Hea Inc.

Kemajuan teknologi dalam AI telah memudahkan penipu untuk membuat penipuan respons suara interaktif (IVR), yang biasa dikenal dengan istilah “vishing” (phishing suara). “AI generatif dapat mengatasi serangan spam yang sangat terspesialisasi dan menjadikannya lebih umum,” jelas Nelson. Metode penipuan baru ini menjadi lebih umum karena meluasnya pertukaran suara secara online, yang memungkinkan penipu mengumpulkan data yang mereka perlukan untuk melakukan panggilan palsu.

Baca selengkapnya di D New York Post Di Sini

Lucas Nolan adalah reporter Breitbart News yang meliput isu kebebasan berpendapat dan sensor online.

Tautan sumber