Foto:Google
Sender.co.id
- Konten yang dihasilkan oleh kecerdasan buatan
(AI) semakin banyak beredar di internet, menimbulkan kekhawatiran bagi
pengguna. Di Korea Selatan, fenomena pornografi deepfake telah menjadi isu
serius, dengan banyaknya warga, termasuk anak di bawah umur, menjadi korban.
Kasus
ini muncul ke permukaan setelah viralnya chat rooms di Telegram yang
mendistribusikan materi pornografi deepfake. Menurut Badan Kepolisian Nasional
Korea Selatan, terdapat 297 kasus kejahatan pornografi deepfake dilaporkan dari
Januari hingga Juli, dengan 113 dari 178 terdakwa adalah remaja.
Untuk
menghadapi masalah ini, Google sedang mengembangkan alat untuk mendeteksi
konten yang dihasilkan oleh AI. Awal tahun ini, Google bergabung dengan
Coalition for Content Provenance and Authenticity (C2PA) untuk mengembangkan
teknologi yang dapat mendeteksi dan menandai konten AI.
Teknologi
ini akan diintegrasikan ke dalam Content Credentials, yang memungkinkan
pelacakan asal konten foto dan video. Dalam beberapa bulan ke depan, versi
terbaru Content Credentials akan diterapkan di produk-produk utama Google,
termasuk Google Images, Lens, dan Circle to Search. Dengan metadata C2PA,
pengguna dapat dengan mudah mendeteksi perubahan yang dilakukan oleh AI melalui
menu "About this image".
Google
juga sedang mengembangkan sistem untuk mengidentifikasi rincian video YouTube,
seperti kapan video diambil. Namun, sistem ini memiliki kelemahan;
keberhasilannya tergantung pada penggunaan penandaan C2PA oleh produsen kamera
dan alat AI. Jika metadata dihapus, deteksi oleh Google menjadi sulit.
Di
sisi lain, Meta juga sedang mengubah cara menampilkan konten AI di platformnya,
dengan label "AI info" yang kini lebih tidak terlihat dalam postingan
foto yang diedit menggunakan AI.(AL)
Komentar