Peneliti memperingatkan orang tidak dapat secara andal mendeteksi suara, bahkan jika mereka dilatih

Suara yang dihasilkan AI yang meniru orang dapat sangat meyakinkan sehingga orang tidak dapat melihat perbedaan seperempat waktu-bahkan jika mereka dilatih untuk mengidentifikasi suara-suara palsu, sebuah studi baru mengklaim.

Para peneliti di University College London menyelidiki seberapa akurat orang dapat membedakan antara suara yang dihasilkan AI dan suara organik, menurut sebuah laporan dalam sains dan jurnal medis PLOS One. Studi ini muncul di tengah munculnya pemalsuan, video, dan foto yang dapat diedit agar terlihat seperti ini adalah gambar nyata dari orang lain.

“Literatur sebelumnya menyoroti Deepfake sebagai salah satu ancaman keamanan terbesar yang timbul dari kemajuan dalam kecerdasan buatan sebagai akibat dari potensi pelecehan mereka,” tulis para peneliti dalam makalah mereka yang diterbitkan bulan ini.

“Namun, penelitian yang meneliti kemampuan deteksi manusia telah terbatas,” lanjut para peneliti, menjelaskan mengapa mereka meluncurkan upaya untuk menentukan seberapa realistis bicara dalam pendengar manusia.

Apa itu AI?

Suara yang dihasilkan AI yang meniru orang bisa sangat meyakinkan sehingga orang tidak dapat melihat perbedaan seperempat waktu. (Gambar Getty)

Tim peneliti menggunakan algoritma teks-ke-pidato pada dua set data yang menghasilkan 50 sampel ucapan deepfake. Para peneliti menggunakan pidato bahasa Inggris dan Mandarin untuk memahami apakah pendengar menggunakan sifat spesifik bahasa untuk mendeteksi pemalsuan yang dalam. “

Sampel pidato kemudian diuji pada 529 orang yang ditanya apakah mereka percaya bahwa monster adalah pembicaraan manusia yang sebenarnya atau bahwa pidato itu dihasilkan di komputer.

APA ITU CHATGPT?

Peserta dapat secara akurat mengidentifikasi pidato Deepfake 73% dari waktu, sementara hasilnya hanya meningkat ‘sedikit’ setelah peserta dilatih tentang cara mengenali suara yang dihasilkan komputer, menurut penelitian.

“Temuan kami mengkonfirmasi bahwa orang tidak dapat dengan andal mendeteksi pidato Deepvat, apakah mereka telah menerima pelatihan untuk membantu mereka menemukan konten buatan,” kata Kimberly Mai, seorang penulis studi, dalam sebuah pernyataan.

Salah satu bangunan kampus terpenting di University College London, 24 April 2017. (Reuters/Toby Melville)

“Perlu dicatat bahwa sampel yang kami gunakan dalam penelitian ini dibuat dengan algoritma yang relatif tua, menimbulkan pertanyaan apakah orang akan kurang mampu mendeteksi pidato yang diisi dalam menggunakan teknologi paling canggih yang akan tersedia sekarang dan di masa depan.”

Studi ini dianggap sebagai yang pertama dari jenisnya untuk menyelidiki bagaimana orang mendeteksi audio Deepfake dalam bahasa selain bahasa Inggris.

APA ITU VOTING? Memahami cara kerjanya, apa yang bisa digunakan dan banyak lagi

Para peserta dalam bahasa Inggris dan Mandarin -peserta yang berbicara menunjukkan tentang tingkat deteksi yang sama, dengan penutur bahasa Inggris mengutip mereka untuk mendengarkan pernapasan untuk menentukan apakah suara tersebut dihasilkan asli atau di komputer. Pembicara Mandarin mengatakan mereka memperhatikan irama pembicara dan laju mengidentifikasi suara dengan benar.

“Meskipun ada beberapa perbedaan dalam fungsi yang digunakan oleh penutur bahasa Inggris dan Mandarin untuk mendeteksi subjek yang dalam, kedua kelompok memiliki banyak kesamaan. Oleh karena itu, ancaman bicara konsisten meskipun bahasa tersebut dipertanyakan,” tulis para peneliti.

Studi ini muncul sebagai ‘peringatan’ bahwa ‘orang tidak dapat dengan andal mendeteksi subjek yang mendalam’, dengan para peneliti menekankan bahwa ‘musuh sudah menggunakan pidato -depths untuk melakukan penipuan’, dan teknologinya hanya akan menjadi lebih meyakinkan dengan kemajuan baru -baru ini di AI.

AI -TEMAN

Audio Deepfakes telah digunakan berulang kali di AS dan Eropa untuk melakukan kejahatan. (ISTOCK)

“Dengan teknologi kecerdasan buatan generatif menjadi lebih canggih dan banyak instrumen ini tersedia secara terbuka, kami akan melihat banyak manfaat serta risiko.

Penipuan AI ‘Voice Clone’ yang semakin tua memperingatkan Senator

Audio Deepfakes telah digunakan berulang kali di AS dan Eropa untuk melakukan kejahatan.

Studi ini menunjuk pada penipuan pada tahun 2019, yang, misalnya, meninggalkan sebuah perusahaan energi Inggris sekitar $ 243.000 di The Red setelah seorang penipu dengan kepala eksekutif perusahaan melompat di telepon dan berpura -pura menjadi bos bisnis orang tua organisasi tersebut.

Swindler itu dapat menggunakan teknologi AI untuk menangkap aksen Jerman minor bos dan ‘melodi’ suara pria itu, sementara ia menuntut agar CEO mentransfer uang ke rekening bank segera, Wall Street Journal melaporkan pada saat itu.

Ai-voting-sponing-sparkling sedang meningkat, di sini Anda dapat melindungi diri sendiri

Ilustrasi AI

Bulan lalu, Komisi Perdagangan Federal memperingatkan bahwa scammers semakin mengandalkan teknologi pemungutan suara untuk meyakinkan para korban yang tidak curiga untuk membayar uang. (Gambar Getty)

Di Amerika Serikat, para korban membunyikan alarm pada penipuan telepon yang sering menargetkan orang tua. Bulan lalu, Komisi Perdagangan Federal memperingatkan bahwa scammers semakin mengandalkan teknologi pemungutan suara untuk meyakinkan para korban yang tidak curiga untuk membayar uang. Para penjahat dapat mengambil gigitan audio atau video seseorang yang diposting secara online, klon suara dan menyebut orang -orang yang dicintai dari orang tersebut sambil berpura -pura berada dalam situasi yang serius dan dalam kebutuhan akan uang cepat.

Klik di sini untuk mendapatkan aplikasi Fox News

Banyak korban kemudian mengatakan kepada polisi bahwa suara yang dikloning sangat mirip dengan orang yang mereka cintai sehingga mereka tidak segera curiga itu adalah penipuan.

Mai mengatakan kepada Fox News Digital bahwa penelitian ini menunjukkan bahwa pelatihan orang untuk mendeteksi pidato yang dihasilkan AI tidak mungkin ‘meningkatkan’ kemampuan deteksi, dan oleh karena itu kita perlu fokus pada pendekatan lain ‘, menunjuk pada beberapa cara lain untuk mengurangi risiko yang terkait dengan teknologi.

“Reaksi crowddsourcing dan gabungan sebagai tindakan pemeriksaan fakta dapat berguna untuk saat ini. Kami juga menunjukkan, meskipun orang tidak dapat diandalkan secara terpisah, kinerja pelacakan meningkat jika jawaban Anda telah bergabung (mengumpulkan banyak keputusan dan membuat keputusan mayoritas),” jelas Mai.

“Selain itu, upaya harus fokus pada peningkatan detektor otomatis dengan membuatnya lebih kuat untuk perbedaan suara uji. Selain itu, organisasi harus memprioritaskan implementasi strategi lain seperti peraturan dan kebijakan.”

situs judi bola online