Untuk atasi gambar deepfake berbahaya, peneliti Australia kembangkan alat AI

id peneliti Australia, Untuk atasi, gambar deepfake, berbahaya, alat AI, kalteng

Untuk atasi gambar deepfake berbahaya, peneliti Australia kembangkan alat AI

Ilustrasi logo Google AI Mode. (ANTARA/blog Google)

Melbourne (ANTARA) - Para peneliti Universitas Monash di Australia, bekerja sama dengan Kepolisian Federal Australia (Australian Federal Police/AFP), mengembangkan alat kecerdasan buatan (artificial intelligence/AI) baru untuk memerangi gambar deepfake yang berbahaya.

Deepfake merupakan teknik memanipulasi gambar atau video menggunakan AI untuk membuat konten baru yang terlihat asli dan meyakinkan.

Alat itu, di antara berbagai aplikasinya yang luas, dapat memperlambat dan menghentikan para pelaku kejahatan memproduksi material pelecehan anak yang dihasilkan oleh AI, gambar serta video deepfake, dan sebagainya, menurut pernyataan Universitas Monash yang dirilis pada Senin (10/11).

Dikenal sebagai "peracunan data" (data poisoning), teknik itu melibatkan perubahan halus pada data untuk membuat praktik memproduksi, memanipulasi, dan menyalahgunakan gambar atau video menggunakan program AI menjadi jauh lebih sulit, menurut AI for Law Enforcement and Community Safety (AiLECS), yang merupakan proyek kolaborasi antara AFP dan Universitas Monash.

Alat AI dan pembelajaran mesin (machine learning) mengandalkan kumpulan data daring yang besar. Meracuni data ini dapat mengakibatkan keduanya memproduksi output yang tidak akurat, bias, atau rusak, menjadikannya lebih mudah untuk mengidentifikasi gambar atau video palsu yang dimanipulasi oleh pelaku kejahatan, dan juga dapat membantu para penyidik dengan mengurangi volume material palsu yang harus diperiksa, kata para peneliti.

Alat pengacau AI yang disebut Silverer itu saat ini masih dalam tahap prototipe, dirancang untuk mengembangkan dan terus meningkatkan teknologi yang akan mudah digunakan bagi masyarakat umum Australia yang ingin melindungi data mereka di media sosial, ujar para peneliti.

"Sebelum seseorang mengunggah gambar ke media sosial atau internet, mereka dapat memodifikasinya menggunakan Silverer. Hal ini akan mengubah piksel untuk mengecoh model AI, dan hasil produksinya akan memiliki kualitas yang sangat rendah, dipenuhi pola buram, atau bahkan tidak dapat dikenali sama sekali," papar Elizabeth Perry, peneliti sekaligus pemimpin proyek AiLECS dan kandidat PhD di Universitas Monash.

AFP melaporkan adanya peningkatan material pelecehan anak yang dihasilkan oleh AI, yang dapat dengan mudah diproduksi dan disebarkan oleh pelaku kejahatan menggunakan teknologi sumber terbuka (open-source) dengan pembatasan akses yang sangat rendah, menurut Campbell Wilson, ahli forensik digital yang juga salah satu direktur AiLECS.


Pewarta :
Editor : Admin Portal
COPYRIGHT © ANTARA 2025

Dilarang keras mengambil konten, melakukan crawling atau pengindeksan otomatis untuk AI di situs web ini tanpa izin tertulis dari Kantor Berita ANTARA.