Staf OpenAI menghadapi protes ketika mereka pulang kerja pada Senin malam, dengan dua kelompok menyerukan para pekerja untuk menghentikan pekerjaan mereka pada sistem kecerdasan buatan (AI) yang canggih seperti ChatGPT.
Kelompok yang dikenal sebagai Pause AI dan No AGI prihatin dengan kemajuan pesat AI dan bahaya bahwa kapasitas AI dapat melampaui kendali manusia serta kerja sama dengan otoritas militer.
Bergabunglah dengan kami dan beri tahu OpenAI “Berhenti bekerja dengan Pentagon!”
Pada 12/2, kami akan menuntut OpenAI mengakhiri hubungannya dengan Pentagon dan tidak menerima klien militer mana pun. Jika batasan etika dan keselamatan mereka dapat direvisi demi kenyamanan, maka hal tersebut tidak dapat dipercaya. pic.twitter.com/29w0c8LgG5— Holly ⏸️ Elmore (@ilex_ulmus) 6 Februari 2024
Lusinan orang berkumpul di lokasi OpenAI di Bryant Street di San Francisco setelah perusahaan tersebut mengubah kebijakan penggunaannya untuk menghilangkan rincian penggunaan AI untuk tujuan militer. Usaha Mengalahkan. Beberapa hari kemudian, dipastikan OpenAI telah menjalin kemitraan dengan Pentagon untuk mengerjakan “alat keamanan siber“.
Penyelenggara protes menyampaikan tujuan mereka dan alasan mereka mengambil tindakan ini.
“Tujuan dari No AGI adalah untuk menyebarkan kesadaran bahwa kita seharusnya tidak membangun AGI (kecerdasan umum buatan) sejak awal,” kata pemimpinnya, Sam Kirchener.
“Sebaliknya kita harus melihat hal-hal seperti emulasi seluruh otak yang menjadikan pemikiran manusia berada di garis depan kecerdasan.”
Rekan sejawatnya di Pause AI, penyelenggara utama Holly Elmore, menambahkan keinginan mereka untuk “jeda global yang tidak terbatas pada pengembangan AGI di tingkat terdepan hingga kondisinya aman.”
Dia berpendapat, “Saya akan sangat senang jika mereka mengakhiri hubungan mereka dengan militer. Sepertinya itu batasan yang sangat penting.”
Penyebab protes OpenAI
Terjunnya OpenAI ke dunia militer merupakan perkembangan yang signifikan, jadi akan sangat luar biasa jika mereka membatalkan keputusan mereka dan mengabulkan keinginan Elmore.
Hal ini terjadi bersamaan dengan peringatan CEO perusahaan tersebut, Sam Altman, mengenai potensi bahaya AI akibat “ketidakselarasan masyarakat” yang menurut beberapa orang mencakup penyalahgunaan teknologi untuk keperluan militer.
Altman juga menyerukan pembentukan regulator universal untuk AI, sebuah sentimen yang dianut oleh Elmore dari Pause AI yang menambahkan, “Tata kelola mandiri tidak cukup bagi perusahaan-perusahaan ini, diperlukan regulasi eksternal.”
Kirchener dengan blak-blakan memberikan peringatannya mengenai dampak semua ini jika kemajuan teknologi tidak dikendalikan, dan menyerukan agar dinamika manusia diprioritaskan.
“Jika kita membangun AGI, ada risiko bahwa di dunia pasca-AGI, kita akan kehilangan banyak makna dari apa yang disebut ancaman psikologis, dimana AGI melakukan segalanya untuk semua orang. Masyarakat tidak akan membutuhkan pekerjaan. Dan dalam masyarakat kita saat ini, orang-orang memperoleh banyak makna dari pekerjaan mereka, mohonnya.
Sebagaimana tercermin dalam namanya, Pause AI tampaknya lebih peduli dengan pengembangan teknologi baru yang aman, sementara No AGI ingin teknologi tersebut dihentikan sama sekali.
Gambar: Pexels/Andrew Neel