Insinyur Google Sidelines yang Mengklaim Kecerdasan Buatannya

SAN FRANCISCO — Google menempatkan seorang insinyur pada cuti berbayar baru-baru ini setelah menolak klaimnya bahwa kecerdasan buatannya hidup, memunculkan pertengkaran lain tentang teknologi paling canggih perusahaan.

Blake Lemoine, seorang insinyur perangkat lunak senior di organisasi AI Bertanggung Jawab Google, mengatakan dalam sebuah wawancara bahwa ia telah diberhentikan pada hari Senin. Departemen sumber daya manusia perusahaan mengatakan dia telah melanggar kebijakan kerahasiaan Google. Sehari sebelum penangguhannya, Mr. Lemoine mengatakan, dia menyerahkan dokumen ke kantor senator AS, mengklaim bahwa dokumen tersebut memberikan bukti bahwa Google dan teknologinya terlibat dalam diskriminasi agama.

Google mengatakan bahwa sistemnya meniru pertukaran percakapan dan dapat membahas topik yang berbeda, tetapi tidak memiliki kesadaran. “Tim kami – termasuk ahli etika dan teknologi – telah meninjau kekhawatiran Blake sesuai Prinsip AI kami dan telah memberi tahu dia bahwa bukti tidak mendukung klaimnya,” Brian Gabriel, juru bicara Google, mengatakan dalam sebuah pernyataan. “Beberapa komunitas AI yang lebih luas sedang mempertimbangkan kemungkinan jangka panjang dari AI hidup atau umum, tetapi tidak masuk akal untuk melakukannya dengan mengantropomorfisasi model percakapan hari ini, yang tidak hidup.” The Washington Post pertama kali melaporkan penangguhan Mr. Lemoine.

Selama berbulan-bulan, Mr. Lemoine telah bergumul dengan manajer, eksekutif, dan sumber daya manusia Google atas klaim mengejutkannya bahwa Model Bahasa untuk Aplikasi Dialog perusahaan, atau LaMDA, memiliki kesadaran dan jiwa. Google mengatakan ratusan peneliti dan insinyurnya telah berbicara dengan LaMDA, alat internal, dan mencapai kesimpulan yang berbeda dari yang dilakukan Mr. Lemoine. Sebagian besar pakar AI percaya bahwa industri ini masih jauh dari kesadaran komputasi.

Beberapa peneliti AI telah lama membuat klaim optimis tentang teknologi ini yang segera mencapai kesadaran, tetapi banyak lainnya dengan sangat cepat mengabaikan klaim ini. “Jika kalian menggunakan sistem ini, kalian tidak akan pernah mengatakan hal seperti itu,” kata Emaad Khwaja, seorang peneliti di University of California, Berkeley, dan University of California, San Francisco, yang sedang mengeksplorasi teknologi serupa.

Saat mengejar garda depan AI, organisasi riset Google telah menghabiskan beberapa tahun terakhir terperosok dalam skandal dan kontroversi. Ilmuwan divisi dan karyawan lainnya secara teratur berselisih tentang masalah teknologi dan personel dalam episode yang sering tumpah ke arena publik. Pada bulan Maret, Google memecat seorang peneliti yang telah berusaha untuk secara terbuka tidak setuju dengan dua karya rekannya yang diterbitkan. Dan pemecatan dua peneliti etika AI, Timnit Gebru dan Margaret Mitchell, setelah mereka mengkritik model bahasa Google, terus membayangi grup tersebut.

Mr. Lemoine, seorang veteran militer yang menggambarkan dirinya sebagai seorang pendeta, mantan narapidana dan peneliti AI, mengatakan kepada eksekutif Google yang senior seperti Kent Walker, presiden urusan global, bahwa dia yakin LaMDA adalah anak berusia 7 atau 8 tahun. tahun. Dia ingin perusahaan meminta persetujuan program komputer sebelum menjalankan eksperimen di dalamnya. Klaimnya didasarkan pada keyakinan agamanya, yang menurutnya didiskriminasi oleh departemen sumber daya manusia perusahaan.

“Mereka telah berulang kali mempertanyakan kewarasan aku,” kata Mr. Lemoine. “Mereka berkata, ‘Apakah kalian sudah diperiksa oleh psikiater baru-baru ini?’” Beberapa bulan sebelum dia diberikan cuti administratif, perusahaan telah menyarankan dia mengambil cuti kesehatan mental.

Yann LeCun, kepala penelitian AI di Meta dan tokoh kunci dalam kebangkitan jaringan saraf, mengatakan dalam sebuah wawancara minggu ini bahwa jenis sistem ini tidak cukup kuat untuk mencapai kecerdasan sejati.

Teknologi Google adalah apa yang oleh para ilmuwan disebut jaringan saraf, yang merupakan sistem matematika yang mempelajari keterampilan dengan menganalisis sejumlah besar data. Dengan menunjukkan pola pada ribuan foto kucing, misalnya, ia bisa belajar mengenali kucing.

Selama beberapa tahun terakhir, Google dan perusahaan terkemuka lainnya telah merancang jaringan saraf yang belajar dari sejumlah besar prosa, termasuk ribuan buku yang tidak diterbitkan dan artikel Wikipedia. “Model bahasa besar” ini dapat diterapkan ke banyak tugas. Mereka dapat meringkas artikel, menjawab pertanyaan, membuat tweet, dan bahkan menulis posting blog.

Tapi mereka sangat cacat. Terkadang mereka menghasilkan prosa yang sempurna. Terkadang mereka menghasilkan omong kosong. Sistemnya sangat bagus dalam menciptakan pola yang pernah mereka lihat di masa lalu, tetapi mereka tidak bisa berpikir seperti manusia.