Microsoft Berencana untuk Menghilangkan Alat Analisis Wajah dalam Mendorong ‘AI yang Bertanggung Jawab’

Selama bertahun-tahun, para aktivis dan akademisi telah meningkatkan kekhawatiran bahwa perangkat lunak analisis wajah yang mengklaim dapat mengidentifikasi usia, jenis kelamin, dan keadaan emosional seseorang dapat menjadi bias, tidak dapat diandalkan, atau invasif — dan tidak boleh dijual.

Mengakui beberapa kritik itu, Microsoft mengatakan pada hari Selasa bahwa mereka berencana untuk menghapus fitur-fitur itu dari layanan kecerdasan buatannya untuk mendeteksi, menganalisis, dan mengenali wajah. Mereka akan berhenti tersedia untuk pengguna baru minggu ini, dan akan dihapus untuk pengguna yang ada dalam tahun ini.

Perubahan tersebut merupakan bagian dari dorongan Microsoft untuk kontrol yang lebih ketat terhadap produk kecerdasan buatannya. Setelah peninjauan selama dua tahun, sebuah tim di Microsoft telah mengembangkan “Standar AI yang Bertanggung Jawab”, sebuah dokumen setebal 27 halaman yang menetapkan persyaratan untuk sistem AI untuk memastikan mereka tidak akan memiliki dampak yang berbahaya bagi masyarakat.

Persyaratannya termasuk memastikan bahwa sistem memberikan “solusi yang valid untuk masalah yang dirancang untuk dipecahkan” dan “kualitas layanan yang serupa untuk kelompok demografis yang teridentifikasi, termasuk kelompok yang terpinggirkan.”

Sebelum dirilis, teknologi yang akan digunakan untuk membuat keputusan penting tentang akses seseorang ke pekerjaan, pendidikan, perawatan kesehatan, layanan keuangan, atau peluang hidup harus ditinjau oleh tim yang dipimpin oleh Natasha Crampton, kepala pejabat AI yang bertanggung jawab Microsoft. .

Ada kekhawatiran yang meningkat di Microsoft seputar alat pengenalan emosi, yang melabeli ekspresi seseorang sebagai kemarahan, penghinaan, jijik, ketakutan, kebahagiaan, netral, kesedihan atau kejutan.

“Ada banyak variasi budaya dan geografis dan individu dalam cara kita mengekspresikan diri kita sendiri,” kata Crampton. Hal itu menyebabkan kekhawatiran akan keandalan, bersama dengan pertanyaan yang lebih besar apakah “ekspresi wajah merupakan indikator yang dapat diandalkan dari keadaan emosional internal kalian,” katanya.

Alat analisis usia dan jenis kelamin yang dihilangkan – bersama dengan alat lain untuk mendeteksi atribut wajah seperti rambut dan senyum – dapat berguna untuk menginterpretasikan gambar visual untuk orang buta atau rabun, misalnya, tetapi perusahaan memutuskan untuk membuat alat pembuatan profil umumnya tersedia untuk umum, kata Ms. Crampton.

Secara khusus, tambahnya, sistem yang disebut pengklasifikasi gender adalah biner, “dan itu tidak konsisten dengan nilai-nilai kami.”

Microsoft juga akan menempatkan kontrol baru pada fitur pengenalan wajah, yang dapat digunakan untuk melakukan pemeriksaan identitas atau mencari orang tertentu. Uber, misalnya, menggunakan perangkat lunak dalam aplikasinya untuk memverifikasi bahwa wajah pengemudi cocok dengan ID pada file untuk akun pengemudi itu. developers perangkat lunak yang ingin menggunakan alat pengenalan wajah Microsoft perlu mengajukan permohonan akses dan menjelaskan bagaimana mereka berencana untuk menerapkannya.

Pengguna juga akan diminta untuk mengajukan dan menjelaskan bagaimana mereka akan menggunakan sistem AI lain yang berpotensi menyalahgunakan, seperti Custom Neural Voice. Layanan ini dapat menghasilkan cetakan suara manusia, berdasarkan sampel ucapan seseorang, sehingga penulis, misalnya, dapat membuat versi sintetis dari suara mereka untuk membaca buku audio mereka dalam bahasa yang tidak mereka gunakan.

Karena kemungkinan penyalahgunaan alat — untuk menciptakan kesan bahwa orang telah mengatakan hal-hal yang tidak mereka katakan — pembicara harus melalui serangkaian langkah untuk mengonfirmasi bahwa penggunaan suara mereka diizinkan, dan rekaman menyertakan tanda air yang dapat dideteksi oleh Microsoft .

“Kami mengambil langkah nyata untuk memenuhi prinsip AI kami,” kata Ms. Crampton, yang telah bekerja sebagai pengacara di Microsoft selama 11 tahun dan bergabung dengan grup AI etis pada 2018. “Ini akan menjadi perjalanan besar. ”

Microsoft, seperti perusahaan teknologi lainnya, telah tersandung dengan produk kecerdasan buatannya. Pada tahun 2016, ia merilis chatbot di Twitter, yang disebut Tay, yang dirancang untuk mempelajari “pemahaman percakapan” dari pengguna yang berinteraksi dengannya. Bot dengan cepat mulai menyemburkan tweet rasis dan ofensif, dan Microsoft harus menghapusnya.

Pada tahun 2020, para peneliti menemukan bahwa alat pidato-ke-teks yang dikembangkan oleh Microsoft, Apple, Google, IBM, dan Amazon bekerja kurang baik untuk orang kulit hitam. Sistem Microsoft adalah yang terbaik dari kelompok itu tetapi salah mengidentifikasi 15 persen kata untuk orang kulit putih, dibandingkan dengan 27 persen untuk orang kulit hitam.

Perusahaan telah mengumpulkan beragam data ucapan untuk melatih sistem AI-nya tetapi tidak memahami betapa beragamnya bahasa itu. Jadi itu menyewa ahli sosiolinguistik dari University of Washington untuk menjelaskan variasi bahasa yang perlu diketahui Microsoft. Ini melampaui demografi dan keragaman regional ke dalam bagaimana orang berbicara dalam pengaturan formal dan informal.

“Memikirkan ras sebagai faktor penentu bagaimana seseorang berbicara sebenarnya agak menyesatkan,” kata Crampton. “Apa yang telah kami pelajari dalam konsultasi dengan ahli adalah bahwa sebenarnya banyak sekali faktor yang mempengaruhi keragaman bahasa.”

Crampton mengatakan bahwa perjalanan untuk memperbaiki disparitas ucapan-ke-teks telah membantu menginformasikan panduan yang ditetapkan dalam standar baru perusahaan.

“Ini adalah periode pengaturan norma yang kritis untuk AI,” katanya, menunjuk pada peraturan yang diusulkan Eropa yang menetapkan aturan dan batasan penggunaan kecerdasan buatan. “Kami berharap dapat menggunakan standar kami untuk mencoba dan berkontribusi pada diskusi yang cerah dan diperlukan yang perlu dilakukan tentang standar yang harus dipegang oleh perusahaan teknologi.”

Perdebatan yang hidup tentang potensi bahaya AI telah berlangsung selama bertahun-tahun di komunitas teknologi, didorong oleh kesalahan dan kesalahan yang memiliki konsekuensi nyata pada kehidupan manusia, seperti algoritme yang menentukan apakah orang mendapatkan manfaat kesejahteraan atau tidak. Otoritas pajak Belanda secara keliru mengambil tunjangan penitipan anak dari keluarga yang membutuhkan ketika algoritma yang salah menghukum orang dengan kewarganegaraan ganda.

Perangkat lunak otomatis untuk mengenali dan menganalisis wajah sangat kontroversial. Tahun lalu, Facebook menutup sistemnya yang berusia satu dekade untuk mengidentifikasi orang di foto. Wakil presiden kecerdasan buatan perusahaan mengutip “banyak kekhawatiran tentang tempat teknologi pengenalan wajah di masyarakat.”

Beberapa pria kulit hitam telah ditangkap secara salah setelah pencocokan pengenalan wajah yang cacat. Dan pada tahun 2020, bersamaan dengan protes Black Lives Matter setelah polisi membunuh George Floyd di Minneapolis, Amazon dan Microsoft mengeluarkan moratorium penggunaan produk pengenalan wajah mereka oleh polisi di Amerika Serikat, dengan mengatakan undang-undang yang lebih jelas tentangnya penggunaan dibutuhkan.

Sejak itu, Washington dan Massachusetts telah mengeluarkan peraturan yang mengharuskan, antara lain, pengawasan yudisial atas penggunaan alat pengenalan wajah oleh polisi.

Crampton mengatakan Microsoft telah mempertimbangkan apakah akan mulai membuat perangkat lunaknya tersedia bagi polisi di negara bagian yang memiliki undang-undang tentang pembukuan tetapi telah memutuskan, untuk saat ini, untuk tidak melakukannya. Dia mengatakan itu bisa berubah ketika lanskap hukum berubah.

Arvind Narayanan, seorang profesor ilmu komputer Princeton dan pakar AI terkemuka, mengatakan bahwa perusahaan mungkin mundur dari teknologi yang menganalisis wajah karena mereka “lebih mendalam, dibandingkan dengan berbagai jenis AI lain yang mungkin meragukan tetapi kami tidak melakukannya. tentu terasa di tulang kita.”

Perusahaan juga mungkin menyadari bahwa, setidaknya untuk saat ini, beberapa dari sistem ini tidak begitu bernilai komersial, katanya. Microsoft tidak dapat mengatakan berapa banyak pengguna yang memiliki fitur analisis wajah yang dihilangkan. Mr Narayanan memperkirakan bahwa perusahaan akan cenderung meninggalkan teknologi invasif lainnya, seperti iklan bertarget, yang membuat profil orang untuk memilih iklan terbaik untuk ditampilkan kepada mereka, karena mereka adalah “sapi perah”.