Google Kembangkan Fitur Deteksi Konten AI: Tanggapan Terhadap Maraknya Deepfake

Sender Universe
29 September 2024 14:19 WIB

Sender.co.id - Konten yang dihasilkan oleh kecerdasan buatan (AI) semakin banyak beredar di internet, menimbulkan kekhawatiran bagi pengguna. Di Korea Selatan, fenomena pornografi deepfake telah menjadi isu serius, dengan banyaknya warga, termasuk anak di bawah umur, menjadi korban.

Kasus ini muncul ke permukaan setelah viralnya chat rooms di Telegram yang mendistribusikan materi pornografi deepfake. Menurut Badan Kepolisian Nasional Korea Selatan, terdapat 297 kasus kejahatan pornografi deepfake dilaporkan dari Januari hingga Juli, dengan 113 dari 178 terdakwa adalah remaja.

Untuk menghadapi masalah ini, Google sedang mengembangkan alat untuk mendeteksi konten yang dihasilkan oleh AI. Awal tahun ini, Google bergabung dengan Coalition for Content Provenance and Authenticity (C2PA) untuk mengembangkan teknologi yang dapat mendeteksi dan menandai konten AI.

Teknologi ini akan diintegrasikan ke dalam Content Credentials, yang memungkinkan pelacakan asal konten foto dan video. Dalam beberapa bulan ke depan, versi terbaru Content Credentials akan diterapkan di produk-produk utama Google, termasuk Google Images, Lens, dan Circle to Search. Dengan metadata C2PA, pengguna dapat dengan mudah mendeteksi perubahan yang dilakukan oleh AI melalui menu "About this image".

Google juga sedang mengembangkan sistem untuk mengidentifikasi rincian video YouTube, seperti kapan video diambil. Namun, sistem ini memiliki kelemahan; keberhasilannya tergantung pada penggunaan penandaan C2PA oleh produsen kamera dan alat AI. Jika metadata dihapus, deteksi oleh Google menjadi sulit.

Di sisi lain, Meta juga sedang mengubah cara menampilkan konten AI di platformnya, dengan label "AI info" yang kini lebih tidak terlihat dalam postingan foto yang diedit menggunakan AI.(AL)

Komentar