Lebih dari Satu dari Tiga Perusahaan Hancur karena Bias AI

0
Perusahaan

Bias dalam sistem AI dapat mengakibatkan kerugian yang signifikan bagi perusahaan, menurut survei baru oleh perusahaan AI perusahaan.

Lebih dari satu dari tiga perusahaan (36 persen) mengungkapkan bahwa mereka telah menderita kerugian karena bias AI dalam satu atau beberapa algoritma, catat  survei DataRobot  terhadap lebih dari 350 teknolog AS dan Inggris, termasuk CIO, direktur TI, manajer TI, ilmuwan data, dan pimpinan pengembangan yang menggunakan atau berencana untuk menggunakan AI.

Dari perusahaan yang dirugikan oleh bias AI, lebih dari separuhnya kehilangan pendapatan (62 persen) atau pelanggan (61 persen), sementara hampir separuhnya kehilangan karyawan (43 persen), dan lebih dari sepertiganya mengeluarkan biaya hukum akibat litigasi (35 persen), menurut penelitian yang dilakukan bekerja sama dengan  Forum Ekonomi Dunia  dan para pemimpin akademis global.

AI yang bias dapat memengaruhi pendapatan dalam sejumlah cara, kata Kay Firth-Butterfield, kepala AI dan pembelajaran mesin serta anggota komite eksekutif Forum Ekonomi Dunia, sebuah organisasi non-pemerintah dan lobi internasional yang berbasis di Cologny, Swiss.

“Jika Anda memilih orang yang salah melalui algoritma SDM yang bias, hal itu dapat memengaruhi pendapatan,” ungkapnya kepada TechNewsWorld.

“Jika Anda meminjamkan uang dan Anda memiliki algoritma yang bias, Anda tidak akan dapat mengembangkan bisnis Anda karena Anda akan selalu meminjamkan uang kepada sekelompok kecil orang yang selama ini selalu Anda pinjami uangnya,” tambahnya.

Tidak Disengaja Namun Tetap Berbahaya

Peserta survei juga mengungkapkan bahwa algoritma yang digunakan oleh organisasi mereka secara tidak sengaja berkontribusi terhadap bias terhadap orang berdasarkan jenis kelamin (34 persen), usia (32 persen), ras (29 persen), orientasi seksual (19 persen), dan agama (18 persen).

Baca juga  Tips Cara Optimasi Channel YouTube Untuk Pemula

“Diskriminasi berbasis AI — meskipun tidak disengaja — dapat menimbulkan dampak buruk terhadap regulasi, reputasi, dan pendapatan,” Forrester memperingatkan dalam laporan terbaru tentang keadilan AI.

“Meskipun sebagian besar organisasi menganut prinsip keadilan dalam AI, menerapkan proses untuk mempraktikkannya secara konsisten merupakan tantangan,” lanjutnya. “Ada beberapa kriteria untuk mengevaluasi keadilan sistem AI, dan menentukan pendekatan yang tepat bergantung pada kasus penggunaan dan konteks sosialnya.”

Mathew Feeney, direktur proyek teknologi baru di  Cato Institute , lembaga pemikir di Washington, DC, menjelaskan bahwa bias AI itu rumit, tetapi bias yang banyak orang kaitkan dengan sistem AI merupakan produk data yang digunakan untuk melatih sistem tersebut.

“Salah satu penggunaan AI yang paling menonjol dalam berita akhir-akhir ini adalah pengenalan wajah,” katanya kepada TechNewsWorld. “Telah banyak didokumentasikan tentang bias rasial dalam pengenalan wajah.

“Sistem tersebut kurang dapat diandalkan saat mencoba mengidentifikasi orang kulit hitam,” jelasnya. “Itu terjadi ketika sistem dilatih dengan foto-foto yang tidak cukup mewakili orang-orang dari kelompok ras tertentu atau foto-foto kelompok tersebut tidak berkualitas baik.”

“Hal ini tidak serta-merta disebabkan oleh niat jahat dari para insinyur dan desainer, tetapi merupakan hasil dari data yang digunakan untuk melatih sistem,” katanya.

“Orang-orang yang menciptakan algoritma membawa bias mereka sendiri ke dalam penciptaan algoritma tersebut,” imbuh Firth-Butterfield. “Jika suatu algoritma diciptakan oleh seorang pria berusia 30 tahun yang berkulit putih, bias yang dibawanya kemungkinan akan berbeda dari seorang wanita berusia 30 tahun yang merupakan orang Afrika-Amerika.”

Bias Versus Diskriminasi

Daniel Castro, wakil presiden  Information Technology & Innovation Foundation , sebuah organisasi penelitian dan kebijakan publik di Washington, DC, menyatakan bahwa orang-orang bersikap cepat dan longgar dengan istilah bias AI.

Baca juga  Regulator Inggris menyetujui kemitraan Microsoft-Inflection AI

“Saya akan mendefinisikan bias AI sebagai kesalahan yang konsisten dalam akurasi suatu algoritma, yaitu perbedaan antara estimasi dan nilai sebenarnya,” ungkapnya kepada TechNewsWorld.

“Sebagian besar perusahaan memiliki insentif pasar yang kuat untuk menghilangkan bias dalam sistem AI karena mereka ingin algoritmanya akurat,” katanya.

“Misalnya,” lanjutnya, “jika algoritma secara keliru merekomendasikan produk terbaik kepada pembeli, maka perusahaan tersebut kehilangan uang untuk pesaingnya.”

“Ada pula alasan reputasi yang membuat perusahaan ingin menghilangkan bias AI, karena produk atau layanan mereka mungkin dianggap di bawah standar,” tambahnya.

Dia menjelaskan bahwa terkadang kekuatan pasar untuk menghilangkan bias tidak efektif.

“Misalnya, jika sebuah badan pemerintah menggunakan algoritma untuk memperkirakan nilai properti untuk keperluan pajak, mungkin tidak ada mekanisme pasar yang baik untuk mengoreksi bias,” jelasnya. “Dalam kasus ini, pemerintah harus menyediakan pengawasan alternatif, seperti melalui langkah-langkah transparansi.”

“Namun terkadang orang merujuk pada bias AI padahal yang mereka maksud sebenarnya adalah diskriminasi,” imbuhnya. “Jika seorang tuan tanah mendiskriminasi penyewa tertentu, kita harus menegakkan undang-undang antidiskriminasi yang berlaku, baik tuan tanah tersebut menggunakan algoritma atau manusia untuk mendiskriminasi orang lain.”

Peraturan di Sayap

Survei DataRobot juga menanyai peserta tentang regulasi AI. Delapan dari 10 teknolog (81 persen) mengatakan regulasi pemerintah dapat membantu dalam dua hal: mendefinisikan dan mencegah bias.

Namun, hampir separuh dari mereka yang disurvei (45 persen) mengaku khawatir regulasi dapat meningkatkan biaya menjalankan bisnis mereka.

Selain itu, hampir sepertiga responden (32 persen) menyatakan kekhawatiran bahwa tanpa regulasi, kelompok orang tertentu dapat dirugikan.

“Banyak permintaan untuk hal semacam itu, tetapi AI terlalu luas dalam hal regulasi,” kata Feeney. “Anda berbicara tentang pengenalan wajah, mobil tanpa pengemudi, aplikasi militer, dan banyak lagi.”

Baca juga  Laporan Ekonomi Digital UNCTAD 2024: Menyeimbangkan pertumbuhan digital dan dampak lingkunga

Akan ada banyak diskusi tentang regulasi AI pada tahun 2022, firma jasa profesional global Deloitte telah memprediksi, meskipun mereka tidak percaya penegakan regulasi secara penuh tidak akan terjadi hingga tahun 2023.

Beberapa yurisdiksi bahkan mungkin mencoba melarang seluruh subbidang AI — seperti pengenalan wajah di ruang publik, penilaian sosial, dan teknik subliminal — secara menyeluruh, catatnya.

“AI memiliki potensi yang luar biasa, tetapi kemungkinan besar kita akan melihat pengawasan yang lebih ketat pada tahun 2022 karena regulator berupaya untuk lebih memahami implikasi privasi dan keamanan data dari aplikasi AI yang baru muncul dan menerapkan strategi untuk melindungi konsumen,” kata Pemimpin Sektor Teknologi AS Deloitte Paul Silverglate dalam rilis berita.

Perusahaan teknologi mendapati diri mereka pada titik konvergensi di mana mereka tidak bisa lagi menyerahkan masalah etika seperti ini pada takdir,” ia memperingatkan. “Yang dibutuhkan adalah pendekatan holistik untuk menangani tanggung jawab etika . Perusahaan yang mengambil pendekatan ini, terutama di area yang lebih baru seperti AI, dapat mengharapkan penerimaan

Leave a Reply

Your email address will not be published. Required fields are marked *