Ancaman 'Deepfake' Jelang Pemilu
Sabtu, 04 Maret 2023 - 17:22 WIB
Sugeng Winarno
Dosen Ilmu Komunikasi FISIP Universitas Muhammadiyah Malang
MUNCULNYA kecerdasan buatan atau artificial intelligence (AI) terus mendisrupsi kehidupan manusia. Beragam modus kejahatan juga menyertai aneka temuan supercanggih saat ini. Fenomena deepfake misalnya.
Deepfake adalah salah satu tipe kecerdasan buatan yang digunakan untuk membuat foto, audio, dan video rekayasa. Penggunaan kecerdasan audio visual ini selain berdampak positif ternyata juga bisa jadi ancaman serius di tahun politik jelang pemilu.
Baca Juga: koran-sindo.com
Keterkaitan deepfake dengan pemilu adalah teknologi ini dapat digunakan untuk tujuan politik yang tidak jujur dan merugikan. Deepfake bisa digunakan untuk membuat video atau gambar palsu yang sulit dibedakan dengan aslinya. Bahkan dengan menggunakan algoritma kecerdasan buatan mampu meniru suara dan gerakan orang yang diwakili oleh video atau gambar tertentu.
Beberapa contoh penggunaan deepfake dalam politik yang berbahaya termasuk pembuatan video palsu yang menggambarkan seorang politisi mengucapkan kata-kata atau melakukan tindakan yang sebenarnya tidak pernah dilakukan atau membuat gambar palsu yang menunjukkan bahwa seorang politisi telah melakukan sesuatu yang kontroversial atau merugikan.
Deepfake juga dapat digunakan untuk mengubah opini publik dengan menyebarkan informasi yang salah atau palsu tentang seorang calon atau bahkan dapat digunakan untuk menciptakan citra palsu dari seorang calon yang lebih menguntungkan secara politik. Dalam banyak kasus, deepfake digunakan sebagai alat propaganda politik yang menyesatkan, yang dapat membahayakan demokrasi dan stabilitas politik. Oleh karena itu, diperlukan upaya untuk mengatasi dan memerangi penggunaan deepfake dalam politik.
Teknologi manipulatif ini juga banyak digunakan untuk membuat konten-konten hoaks. Foto dan video diolah sedemikian rupa sehingga persis dengan aslinya. Manipulasi suara juga dengan gampang bisa dilakukan. Siapa pun bisa berbicara dengan karakter suara orang lain yang dikehendaki. Kecanggihan manipulasi citra audio visual ini sangat rawan dan dapat memicu munculnya beragam konten palsu yang dapat merugikan orang lain.
Dosen Ilmu Komunikasi FISIP Universitas Muhammadiyah Malang
MUNCULNYA kecerdasan buatan atau artificial intelligence (AI) terus mendisrupsi kehidupan manusia. Beragam modus kejahatan juga menyertai aneka temuan supercanggih saat ini. Fenomena deepfake misalnya.
Deepfake adalah salah satu tipe kecerdasan buatan yang digunakan untuk membuat foto, audio, dan video rekayasa. Penggunaan kecerdasan audio visual ini selain berdampak positif ternyata juga bisa jadi ancaman serius di tahun politik jelang pemilu.
Baca Juga: koran-sindo.com
Keterkaitan deepfake dengan pemilu adalah teknologi ini dapat digunakan untuk tujuan politik yang tidak jujur dan merugikan. Deepfake bisa digunakan untuk membuat video atau gambar palsu yang sulit dibedakan dengan aslinya. Bahkan dengan menggunakan algoritma kecerdasan buatan mampu meniru suara dan gerakan orang yang diwakili oleh video atau gambar tertentu.
Beberapa contoh penggunaan deepfake dalam politik yang berbahaya termasuk pembuatan video palsu yang menggambarkan seorang politisi mengucapkan kata-kata atau melakukan tindakan yang sebenarnya tidak pernah dilakukan atau membuat gambar palsu yang menunjukkan bahwa seorang politisi telah melakukan sesuatu yang kontroversial atau merugikan.
Deepfake juga dapat digunakan untuk mengubah opini publik dengan menyebarkan informasi yang salah atau palsu tentang seorang calon atau bahkan dapat digunakan untuk menciptakan citra palsu dari seorang calon yang lebih menguntungkan secara politik. Dalam banyak kasus, deepfake digunakan sebagai alat propaganda politik yang menyesatkan, yang dapat membahayakan demokrasi dan stabilitas politik. Oleh karena itu, diperlukan upaya untuk mengatasi dan memerangi penggunaan deepfake dalam politik.
Teknologi manipulatif ini juga banyak digunakan untuk membuat konten-konten hoaks. Foto dan video diolah sedemikian rupa sehingga persis dengan aslinya. Manipulasi suara juga dengan gampang bisa dilakukan. Siapa pun bisa berbicara dengan karakter suara orang lain yang dikehendaki. Kecanggihan manipulasi citra audio visual ini sangat rawan dan dapat memicu munculnya beragam konten palsu yang dapat merugikan orang lain.
tulis komentar anda