Sebuah aplikasi baru bernama Neon sedang jadi perbincangan panas. Bagaimana tidak, aplikasi ini menawarkan uang tunai hanya dengan merekam percakapan telepon pengguna. Rekaman tersebut kemudian dijual ke perusahaan AI untuk melatih model kecerdasan buatan. Dengan iming-iming bisa menghasilkan hingga 30 dolar per hari (sekitar Rp480 ribu), Neon berhasil meroket ke posisi nomor dua di kategori aplikasi sosial gratis di App Store Amerika.
Cara kerjanya sederhana. Kalau pengguna menelepon sesama pengguna Neon, keduanya akan direkam, dan bayaran bisa mencapai 30 sen per menit. Kalau menelepon orang biasa, hanya suara pengguna Neon yang terekam, dengan tarif 15 sen per menit. Aplikasi ini juga memberikan bonus referral senilai 30 dolar per orang.
Tapi di balik tawaran manis ini, ada tanda tanya besar soal privasi. Neon memang mengklaim hanya merekam suara pengguna, menghapus data pribadi seperti nama dan nomor, serta menjual rekaman hanya ke perusahaan AI yang “terpercaya”. Namun, dalam syarat layanan, Neon memberi dirinya hak luas untuk menggunakan, menyimpan, dan bahkan mendistribusikan rekaman pengguna. Dengan kata lain, sekali suara terekam, kontrol sepenuhnya bisa berpindah ke tangan Neon dan mitranya.
Risikonya jelas. Suara bisa digunakan untuk membuat tiruan digital, bahkan berpotensi dimanfaatkan untuk penipuan. Para ahli hukum dan keamanan siber juga mengingatkan bahwa aturan soal perekaman percakapan berbeda-beda di tiap negara bagian, dan apa yang dilakukan Neon mungkin saja berjalan di area abu-abu hukum.
Yang menarik, banyak orang tetap mengunduh aplikasi ini. Mungkin karena sudah terbiasa hidup di era AI dan media sosial di mana privasi makin tipis nilainya. Ada yang berpikir, kalau data pribadi toh akan dijual juga, kenapa tidak ikut menikmati uangnya?
Di satu sisi, Neon membuka peluang penghasilan tambahan dengan cara mudah. Namun di sisi lain, aplikasinya juga mengingatkan bahwa data pribadi kini punya harga dan kita yang memutuskan mau menjualnya atau tidak. Pertanyaannya: apakah Rp480 ribu sehari sebanding dengan resiko suara dipakai untuk hal yang tak bisa kita kendalikan?