Narata.co – Maraknya tren mengedit wajah anak menggunakan teknologi kecerdasan buatan (artificial intelligence/AI) untuk konten dance di media sosial perlu disikapi secara kritis oleh masyarakat. Di balik tampilan visual yang dinilai lucu dan menarik, terdapat risiko serius terkait keamanan data dan privasi anak.
Ketua Program Studi Kecerdasan Buatan IPB University, Prof Yeni Herdiyani, mengatakan teknologi AI yang banyak digunakan saat ini merupakan generative artificial intelligence (Gen-AI), yakni sistem yang mampu menghasilkan gambar, video, teks, hingga suara berdasarkan model dan data yang tersedia.
“Bayi dan dance merupakan model yang sudah bisa dibuat oleh algoritma. Ketika diberi informasi berupa foto riil, AI dapat secara otomatis menghasilkan visual yang tampak nyata,” ujar Yeni.
Menurutnya, penggunaan wajah anak sebagai data AI berpotensi menimbulkan risiko kejahatan digital. Foto yang diunggah ke ruang publik pada dasarnya dapat diakses dan disalahgunakan oleh pihak yang tidak bertanggung jawab.
“Kondisi ini menempatkan anak sebagai kelompok yang sangat rentan dalam ekosistem digital,” kata Yeni.
Baca juga: Indonesia Dorong Standar Global Keselamatan Anak di Ruang Digital
Yeni menekankan pentingnya kesadaran orang tua terhadap risiko digital sebelum mengunggah atau mengedit wajah anak menggunakan teknologi AI. Risiko tersebut mencakup keamanan data, perlindungan privasi, serta kemungkinan penyalahgunaan data untuk kepentingan lain.
“Data yang diberikan kepada algoritma AI dapat digunakan untuk melatih model sebagai dataset dan berpotensi muncul kembali dalam bentuk lain di masa mendatang,” jelas Yeni.
Untuk merespons fenomena tersebut, Yeni menilai literasi digital menjadi kunci utama. Saat ini IPB University secara konsisten membekali mahasiswa baru dengan materi etika dan tanggung jawab penggunaan teknologi melalui perkuliahan berpikir komputasional sejak tahun pertama.
“Upaya ini penting untuk membentuk masyarakat yang lebih kritis dan bertanggung jawab dalam memanfaatkan teknologi AI,” pungkas Yeni.



