Waspadai Penipuan Video Call Pakai Teknologi AI

Bisnis.com,16 Jun 2023, 18:30 WIB
Penulis: Sabina Arla Yogandini
Ilustrasi kecerdasan buatan atau artificial intelligence AI

Bisnis.com, JAKARTA - Modus penipuan sudah semakin canggih. Saat ini, deepfake yang merupakan salah satu bentuk kecerdasan buatan (AI) yang mampu mengubah video call baik wajah Anda sendiri, orang disekitar Anda, bahkan orang yang telah meninggal.

Hal itu pun ramai diperbincangkan di media sosial karena bahayanya yang dapat merugikan banyak orang.

“Ngerinya lagi, kualitas video call itu bisa disesuaikan oleh penipu. Ini kualitas yang paling rendah loh dan ingat ini bukan filter,” dikutip unggahan akun Instagram @realmrbert, Kamis (16/6/2023).

Terlebih lagi aplikasi seperti WhatsApp, Skype, dan discord juga sudah mendukung AI Voice. Oleh karena itu, penting bagi Anda untuk mengenali tanda mengenai panggilan video palsu.

Dilansir Live Mint, berikut adalah beberapa trik untuk menghindari masalah ini:

1. Kualitas video

Jika saat Anda mendapatkan video call entah dari teman atau keluarga, tetapi kualitas videonya buruk, waspadalah bahwa itu salah satu bentuk modus penipuan.

2. Informasi kontak

Anda harus memeriksa apakah orang yang menelepon Anda ada dalam daftar kontak Anda. Selain itu, Anda juga perlu memastikan nama kontak yang muncul pada panggilan video dan informasi kontak.

3. Ukuran video

Dalam hal ini, Anda perlu mengubah ukuran video agar sesuai dengan jendela webcam, jika seseorang melakukan panggilan video palsu. Langkah ini dapat mendistorsi proporsi video dan terlihat tidak sesuai dengan bentuknya.

Cek Berita dan Artikel yang lain di Google News dan WA Channel

Simak berita lainnya seputar topik di bawah ini:
Editor: Novita Sari Simamora
Terkini
'