Ilustrasi, penipuan yang menggunakan Bunyi Imitasi AI. Foto: tangerangkota.go.id
Jakarta: Artificial Intelligence (AI) kini semakin berkembang dan canggih, terbaru Membangun gambar hingga meniru Bunyi Sosok. Otoritas Jasa Keuangan (OJK) mengimbau kepada masyarakat Buat selalu waspada terhadap penipuan menggunakan AI yang marak dan menimbulkan kerugian.
Mengutip dari akun Formal @ojkindonesia, OJK menjelaskan AI dapat meniru Bunyi hanya dengna menggunakan sampel Bunyi yang singkat. Nantinya AI akan menganalisis mulai dari nada, Langkah bicara, hingga aksen diri, Lampau akan menghasilkan Bunyi yang mirip seperti sampel.
Siapa pun dapat menggunakan Bunyi orang lain melalui telepon dan terdengar sangat natural. Bahayanya adalah kepada pihak yang Kagak bertanggung jawab menggunakan Bunyi Imitasi Buat tindakan penipuan.
Contohnya, pelaku penipuan akan menelepon korban dengan menggunakan Bunyi Imitasi yang mirip Bunyi orang terdekat korban. Lampau, pelaku akan melakukan aksinya yang berujung meminta transfer Anggaran atau yang berhubungan dengan kerugian korban.
.jpg)
(Ilustrasi logo OJK. Foto: dok MI)
Mencegah penipuan
OJK memberikan saran kepada masyarakat Buat antisipasi dari modus penipuan tersebut, Yakni:
- Kenali nomor yang telepon, Apabila nomor asing sebaiknya Kagak diangkat.
- Jangan pernah beri Mengerti kode PIN.
- Jangan pernah kasih kode OTP.
- Jangan pernah memberi data rekening.
Masyarakat diharapkan Buat tetap waspada dengan tindakan modus versi modern. Pentingnya senantiasa berfikir rasional agar Dapat mengenali Bunyi AI atau Bunyi Asli terdekat.
Apabila menemukan indikasi penipuan, segera lapor ke Indonesia Anti-Scam Center (IASC) atau di laman www.iasc.ojk.go.id. Jangan Tiba menunggu banyak korban atau bahkan menjadi korban. (Adrian Bachtiar)
