Ancaman 'Deepfake' Jelang Pemilu

Sabtu, 04 Maret 2023 - 17:22 WIB
Sugeng Winarno (Fot:o: Ist)
Sugeng Winarno

Dosen Ilmu Komunikasi FISIP Universitas Muhammadiyah Malang

MUNCULNYA kecerdasan buatan atau artificial intelligence (AI) terus mendisrupsi kehidupan manusia. Beragam modus kejahatan juga menyertai aneka temuan supercanggih saat ini. Fenomena deepfake misalnya.



Deepfake adalah salah satu tipe kecerdasan buatan yang digunakan untuk membuat foto, audio, dan video rekayasa. Penggunaan kecerdasan audio visual ini selain berdampak positif ternyata juga bisa jadi ancaman serius di tahun politik jelang pemilu.

Baca Juga: koran-sindo.com

Keterkaitan deepfake dengan pemilu adalah teknologi ini dapat digunakan untuk tujuan politik yang tidak jujur dan merugikan. Deepfake bisa digunakan untuk membuat video atau gambar palsu yang sulit dibedakan dengan aslinya. Bahkan dengan menggunakan algoritma kecerdasan buatan mampu meniru suara dan gerakan orang yang diwakili oleh video atau gambar tertentu.

Beberapa contoh penggunaan deepfake dalam politik yang berbahaya termasuk pembuatan video palsu yang menggambarkan seorang politisi mengucapkan kata-kata atau melakukan tindakan yang sebenarnya tidak pernah dilakukan atau membuat gambar palsu yang menunjukkan bahwa seorang politisi telah melakukan sesuatu yang kontroversial atau merugikan.

Deepfake juga dapat digunakan untuk mengubah opini publik dengan menyebarkan informasi yang salah atau palsu tentang seorang calon atau bahkan dapat digunakan untuk menciptakan citra palsu dari seorang calon yang lebih menguntungkan secara politik. Dalam banyak kasus, deepfake digunakan sebagai alat propaganda politik yang menyesatkan, yang dapat membahayakan demokrasi dan stabilitas politik. Oleh karena itu, diperlukan upaya untuk mengatasi dan memerangi penggunaan deepfake dalam politik.

Teknologi manipulatif ini juga banyak digunakan untuk membuat konten-konten hoaks. Foto dan video diolah sedemikian rupa sehingga persis dengan aslinya. Manipulasi suara juga dengan gampang bisa dilakukan. Siapa pun bisa berbicara dengan karakter suara orang lain yang dikehendaki. Kecanggihan manipulasi citra audio visual ini sangat rawan dan dapat memicu munculnya beragam konten palsu yang dapat merugikan orang lain.
Halaman :
tulis komentar anda
Follow
Dapatkan berita terkini dan kejutan menarik dari SINDOnews.com, Klik Disini untuk mendaftarkan diri anda sekarang juga!
Video Rekomendasi
Berita Terkait
Rekomendasi
Terpopuler
Berita Terkini More