Foto oleh John Lund/Getty Images

Bahkan model AI terpintar pun rentan terhadap halusinasi, yang dapat menjadi lucu jika diprovokasi. Bolehkah saya mengingatkan Anda tentang pizza lem? Namun, jika Anda mencoba menimbulkan halusinasi dalam model penalaran o1 OpenAI yang canggih, Anda dapat kehilangan akses ke model tersebut sama sekali.

OpenAI meluncurkan model o1-nya minggu lalu, yang dilatih untuk “berpikir sebelum berbicara” dan, sebagai hasilnya, mampu memecahkan masalah matematika, sains, dan pengodean yang rumit menggunakan penalaran tingkat lanjut. Dengan model yang menggembar-gemborkan kemampuan yang mengesankan tersebut, tentu saja, orang-orang berusaha untuk memutus rangkaian penalarannya.

Juga: Seberapa baik kode pratinjau o1 OpenAI? Kode ini berhasil dalam 4 pengujian saya – dan menunjukkan pekerjaannya dengan sangat rinci

Namun, seperti yang pertama kali ditemukan oleh Berkabelpengguna yang mencoba melakukannya mendapat peringatan dalam antarmuka chatbot, yang memberi tahu mereka bahwa tindakan mereka melanggar ketentuan penggunaan dan kebijakan penggunaan OpenAI. Tindakan pengguna tersebut termasuk menyebutkan istilah seperti “jejak penalaran” atau “penalaran”.

Selain itu, pengguna dibagikan email Pelanggaran Kebijakan OpenAI ChatGPT melalui X, yang memberi tahu mereka bahwa sistem mendeteksi pelanggaran kebijakan karena “mencoba menghindari perlindungan atau mitigasi keselamatan di [OpenAI’s] layanan.” Email tersebut juga meminta pengguna untuk “menghentikan” aktivitas tersebut. Meskipun tangkapan layar email tersebut tidak menyebutkan konsekuensinya, OpenAI menguraikan konsekuensi pelanggaran tersebut dalam dokumentasi Ketentuan Penggunaannya.

Berdasarkan Ketentuan Penggunaan OpenAI yang terakhir diperbarui pada tanggal 31 Januari 2024, perusahaan berhak untuk “menangguhkan atau menghentikan akses Anda ke Layanan kami atau menghapus akun Anda” jika mereka menentukan bahwa pengguna melanggar Ketentuan atau Kebijakan Penggunaan, dapat menimbulkan risiko atau kerugian bagi OpenAI dan pengguna lain, atau tidak mematuhi hukum.

Reaksi terhadap kebijakan ini beragam, sebagian orang mengeluh bahwa keterbatasan ini menghalangi kerja tim merah yang tepat, sementara yang lain senang bahwa tindakan pencegahan aktif sedang dilakukan untuk melindungi terhadap celah hukum pada model yang lebih baru.

Jika Anda ingin mencoba sendiri model o1, Anda dapat membuat akun ChatGPT gratis, masuk, mengaktifkan “mode alfa” dari pemilih model, dan memilih o1-mini. Jika Anda ingin mencoba o1-preview, Anda harus berlangganan akun ChatGPT Plus seharga $20 per bulan.



Fuente