Apple baru saja menghapus beberapa aplikasi dari App Store yang diklaim mampu menghasilkan foto telanjang tanpa izin menggunakan AI. Dilansir dari 404 Media, iklan untuk aplikasi-aplikasi semacam itu bahkan telah muncul di Instagram.
Menurut 404 Media, tindakan Apple terhadap aplikasi-aplikasi ini baru diambil setelah publikasi tersebut membagikan tautan ke aplikasi tersebut dan iklannya. Hal ini menunjukkan bahwa Apple kesulitan menemukan aplikasi-aplikasi yang melanggar kebijakan App Store-nya tanpa bantuan eksternal.
404 Media menemukan lima iklan semacam itu dengan menjelajahi Meta Ads Library, tempat di mana semua iklan di platform tersebut diarsipkan. Dua dari iklan tersebut adalah untuk layanan berbasis web yang menawarkan layanan serupa, sementara tiga lainnya mengarahkan mereka ke aplikasi di Apple App Store.
Beberapa aplikasi ini menawarkan pertukaran wajah pada gambar-gambar dewasa, sementara yang lain dipasarkan sebagai aplikasi ‘membuka pakaian’ yang menggunakan AI untuk menghapus pakaian dari foto-foto normal seseorang.
Meskipun Meta dengan cepat menghapus iklan-iklan tersebut, Apple awalnya menolak untuk berkomentar dan meminta lebih banyak detail tentang iklan-iklan tersebut setelah cerita tersebut dipublikasikan minggu lalu.
Pada tahun 2022, aplikasi serupa ditemukan di Google Play Store dan Apple App Store, tetapi kedua perusahaan tersebut tidak segera mengambil tindakan untuk menghapusnya. Sebaliknya, mereka mendesak pengembang untuk berhenti mengiklankan kemampuan tersebut di situs dewasa populer.
Dalam beberapa bulan terakhir, penyebaran aplikasi membuka pakaian telah menjadi hal yang umum di sekolah dan perguruan tinggi di seluruh dunia.
Beberapa aplikasi ini didistribusikan secara langsung, sementara yang lain menawarkan fitur-fiturnya melalui layanan langganan. Trend ini menegaskan pentingnya pengawasan yang waspada oleh perusahaan teknologi untuk mencegah penyebaran aplikasi yang berbahaya dan tidak etis.