Kehadiran ChatGPT di iPhone Memicu Munculnya Kembali Kekhawatiran Privasi

0
ChatGPT

Sejak OpenAI memperkenalkan ChatGPT, para pendukung privasi telah memperingatkan konsumen tentang potensi ancaman terhadap privasi yang ditimbulkan oleh aplikasi AI generatif. Kehadiran aplikasi ChatGPT di Apple App Store telah memicu gelombang kewaspadaan baru.

“[S]ebelum Anda terjun langsung ke aplikasi, berhati-hatilah untuk tidak terlalu personal dengan bot dan membahayakan privasi Anda,” Muskaan Saxena memperingatkan di Tech Radar .

Aplikasi iOS hadir dengan sebuah tradeoff eksplisit yang harus diperhatikan oleh pengguna, jelasnya, termasuk peringatan ini: “Obrolan anonim dapat ditinjau oleh pelatih AI kami untuk meningkatkan sistem kami.”

Namun, anonimisasi bukanlah tiket menuju privasi. Obrolan anonim dilucuti dari informasi yang dapat menghubungkannya ke pengguna tertentu. “Namun, anonimisasi mungkin bukan tindakan yang memadai untuk melindungi privasi konsumen karena data anonim masih dapat diidentifikasi ulang dengan menggabungkannya dengan sumber informasi lain,” Joey Stanford, wakil presiden privasi dan keamanan di Platform.sh , pembuat platform layanan berbasis cloud untuk pengembang yang berbasis di Paris, mengatakan kepada TechNewsWorld.

“Telah ditemukan bahwa relatif mudah untuk mendeanonimkan informasi, terutama jika informasi lokasi digunakan,” jelas Jen Caltrider, peneliti utama untuk proyek Privacy Not Included Mozilla.

“Secara publik, OpenAI mengatakan tidak mengumpulkan data lokasi, tetapi kebijakan privasinya untuk ChatGPT mengatakan mereka dapat mengumpulkan data tersebut,” katanya kepada TechNewsWorld.

Meski demikian, OpenAI memperingatkan pengguna aplikasi ChatGPT bahwa informasi mereka akan digunakan untuk melatih model bahasanya yang besar. “Mereka jujur ​​tentang hal itu. Mereka tidak menyembunyikan apa pun,” kata Caltrider.

Menanggapi Privasi dengan Serius

Caleb Withers, asisten peneliti di Center for New American Security, lembaga pemikir keamanan dan pertahanan nasional di Washington, DC, menjelaskan bahwa jika pengguna mengetikkan nama, tempat kerja, dan informasi pribadi lainnya ke dalam kueri ChatGPT, data tersebut tidak akan dianonimkan.

Baca juga  Cara Mendapatkan Kuota Internet Gratis untuk Video Call Hemat Kuota

“Anda harus bertanya pada diri sendiri, ‘Apakah ini sesuatu yang akan saya katakan kepada karyawan OpenAI?’” ungkapnya kepada TechNewsWorld.

OpenAI telah menyatakan bahwa pihaknya menganggap serius privasi dan menerapkan langkah-langkah untuk melindungi data pengguna, kata Mark N. Vena, presiden dan analis utama di SmartTech Research di San Jose, California.

“Namun, sebaiknya selalu tinjau kebijakan dan praktik privasi khusus dari layanan apa pun yang Anda gunakan untuk memahami bagaimana data Anda ditangani dan perlindungan apa yang berlaku,”

Sebesar apapun komitmen organisasi terhadap keamanan data, mungkin saja ada kerentanan yang dapat dieksploitasi oleh pelaku jahat, imbuh James McQuiggan, penganjur kesadaran keamanan di KnowBe4 , penyedia pelatihan kesadaran keamanan di Clearwater, Florida.

“Selalu penting untuk bersikap hati-hati dan mempertimbangkan perlunya berbagi informasi sensitif untuk memastikan bahwa data Anda seaman mungkin,” katanya kepada TechNewsWorld.

“Melindungi privasi Anda merupakan tanggung jawab bersama antara pengguna dan perusahaan yang mengumpulkan dan menggunakan data mereka, yang didokumentasikan dalam Perjanjian Lisensi Pengguna Akhir yang panjang dan sering tidak dibaca,” tambahnya.

Perlindungan Terintegrasi

McQuiggan mencatat bahwa pengguna aplikasi AI generatif diketahui memasukkan informasi sensitif seperti tanggal lahir, nomor telepon, alamat pos, dan email ke dalam kueri mereka. “Jika sistem AI tidak diamankan dengan baik, sistem tersebut dapat diakses oleh pihak ketiga dan digunakan untuk tujuan jahat seperti pencurian identitas atau iklan bertarget,” katanya.

Ia menambahkan bahwa aplikasi AI generatif juga dapat secara tidak sengaja mengungkapkan informasi sensitif tentang pengguna melalui konten yang dihasilkannya. “Oleh karena itu,” lanjutnya, “pengguna harus mengetahui potensi risiko privasi dari penggunaan aplikasi AI generatif dan mengambil langkah-langkah yang diperlukan untuk melindungi informasi pribadi mereka.”

Tidak seperti komputer desktop dan laptop, telepon seluler memiliki beberapa fitur keamanan bawaan yang dapat mengekang pelanggaran privasi oleh aplikasi yang berjalan di dalamnya.

Baca juga  Perusahaan teknologi gencarkan dorongan untuk perangkat lunak ramah lingkungan

Namun, seperti yang diutarakan McQuiggan, “Meskipun beberapa tindakan, seperti izin aplikasi dan pengaturan privasi, dapat memberikan sejumlah tingkat perlindungan, tindakan tersebut mungkin tidak sepenuhnya melindungi informasi pribadi Anda dari semua jenis ancaman privasi seperti halnya aplikasi apa pun yang dimuat di telepon pintar.”

Vena setuju bahwa langkah-langkah bawaan seperti izin aplikasi, pengaturan privasi, dan peraturan toko aplikasi menawarkan beberapa tingkat perlindungan. “Namun, langkah-langkah tersebut mungkin tidak cukup untuk mengurangi semua ancaman privasi,” katanya. ” Pengembang aplikasi dan produsen ponsel pintar memiliki pendekatan yang berbeda terhadap privasi, dan tidak semua aplikasi mematuhi praktik terbaik.”

Bahkan praktik OpenAI bervariasi dari desktop ke ponsel. “Jika Anda menggunakan ChatGPT di situs web, Anda memiliki kemampuan untuk masuk ke kontrol data dan memilih agar obrolan Anda tidak digunakan untuk meningkatkan ChatGPT. Pengaturan itu tidak ada di aplikasi iOS,” kata Caltrider.

Waspadai Info Privasi App Store

Caltrider juga menemukan izin yang digunakan oleh aplikasi iOS OpenAI agak tidak jelas, dengan menyatakan bahwa “Di Google Play Store, Anda dapat memeriksa dan melihat izin apa saja yang sedang digunakan. Anda tidak dapat melakukannya melalui Apple App Store.”

Ia memperingatkan pengguna agar tidak bergantung pada informasi privasi yang ditemukan di toko aplikasi. “Penelitian yang telah kami lakukan terhadap informasi keamanan Google Play Store menunjukkan bahwa informasi itu benar-benar tidak dapat diandalkan,” ungkapnya.

“Penelitian yang dilakukan oleh pihak lain terhadap Apple App Store juga menunjukkan bahwa aplikasi itu tidak dapat diandalkan,” lanjutnya. “Pengguna tidak boleh memercayai informasi keamanan data yang mereka temukan di halaman aplikasi. Mereka harus melakukan penelitian sendiri, yang sulit dan rumit.”

Baca juga  Peredam Kebisingan Aktif Menjadi Daya Tarik Utama di Apple AirPods Baru

“Perusahaan-perusahaan harus lebih jujur ​​tentang apa yang mereka kumpulkan dan bagikan,” imbuhnya. “OpenAI jujur ​​tentang bagaimana mereka akan menggunakan data yang mereka kumpulkan untuk melatih ChatGPT, tetapi kemudian mereka mengatakan bahwa setelah mereka menganonimkan data tersebut, mereka dapat menggunakannya dalam banyak cara yang melampaui standar dalam kebijakan privasi.”

Stanford mencatat bahwa Apple memiliki beberapa kebijakan yang dapat mengatasi beberapa ancaman privasi yang ditimbulkan oleh aplikasi AI generatif. Kebijakan tersebut meliputi:

  • Memerlukan persetujuan pengguna untuk pengumpulan dan pembagian data oleh aplikasi yang menggunakan teknologi AI generatif;
  • Memberikan transparansi dan kontrol atas bagaimana data digunakan dan oleh siapa melalui fitur Transparansi Pelacakan Aplikasi yang memungkinkan pengguna untuk tidak ikut serta dalam pelacakan lintas aplikasi;
  • Menegakkan standar dan peraturan privasi bagi pengembang aplikasi melalui proses peninjauan App Store dan menolak aplikasi yang melanggarnya.

Namun, ia mengakui, “Langkah-langkah ini mungkin tidak cukup untuk mencegah aplikasi AI generatif membuat konten yang tidak pantas, berbahaya, atau menyesatkan yang dapat memengaruhi privasi dan keamanan pengguna.”

Seruan untuk Undang-Undang Privasi AI Federal

OpenAI hanyalah satu perusahaan. Ada beberapa perusahaan yang menciptakan model bahasa yang besar, dan masih banyak lagi yang mungkin akan muncul dalam waktu dekat,” imbuh Hodan Omaar, analis kebijakan AI senior di Center for Data Innovation , sebuah lembaga pemikir yang mempelajari persimpangan antara data, teknologi, dan kebijakan publik, di Washington, DC.

“Kita perlu memiliki undang-undang privasi data federal untuk memastikan semua perusahaan mematuhi serangkaian standar yang jelas,” katanya kepada TechNewsWorld.

“Dengan pesatnya pertumbuhan dan perluasan kecerdasan buatan,” imbuh Caltrider, “pastinya perlu ada lembaga pengawas dan regulasi yang solid dan kuat untuk mengawasi kita semua seiring dengan pertumbuhan dan penyebarannya.”

Leave a Reply

Your email address will not be published. Required fields are marked *