OpenAI telah terkena keluhan privasi di Austria oleh sebuah , yang merupakan singkatan dari Bukan Urusan Anda. Keluhan tersebut menuduh bahwa bot ChatGPT perusahaan berulang kali memberikan informasi yang salah tentang individu sebenarnya (yang karena alasan privasi tidak disebutkan dalam keluhan), . Hal ini mungkin melanggar aturan privasi UE.

Chatbot tersebut diduga memberikan informasi tanggal lahir yang salah untuk individu tersebut, alih-alih hanya mengatakan bahwa mereka tidak mengetahui jawaban atas pertanyaan tersebut. Seperti politisi, chatbot AI suka mengarang dengan percaya diri dan berharap kita tidak menyadarinya. Fenomena ini disebut halusinasi. Namun, itu adalah satu hal ketika bot ini membuat bahan-bahan untuk resep dan hal lain lagi ketika mereka menciptakan hal-hal tentang orang sungguhan.

Itu bahwa OpenAI menolak membantu menghapus informasi palsu tersebut, dan menjawab bahwa secara teknis tidak mungkin melakukan perubahan semacam itu. Perusahaan memang menawarkan untuk memfilter atau memblokir data berdasarkan permintaan tertentu. Kebijakan privasi OpenAI mengatakan bahwa jika pengguna menyadari bahwa chatbot AI telah menghasilkan “informasi yang tidak akurat secara faktual” tentang mereka, hal itu “permintaan koreksi”, tetapi perusahaan mengatakan bahwa “mungkin tidak dapat memperbaiki ketidakakuratan di setiap contoh”, .

Keluhan ini lebih dari sekadar satu keluhan, karena kecenderungan chatbot untuk mengada-ada dapat bertentangan dengan Peraturan Perlindungan Data Umum (GDPR) di wilayah tersebut, yang mengatur . Penduduk UE mempunyai hak terkait informasi pribadi, termasuk hak untuk mengoreksi data palsu. Kegagalan untuk mematuhi peraturan ini dapat menimbulkan sanksi finansial yang serius, dalam beberapa kasus hingga empat persen dari omset tahunan global. Regulator juga dapat memerintahkan perubahan terhadap cara informasi diproses.

“Jelas bahwa perusahaan saat ini tidak dapat membuat chatbot seperti ChatGPT mematuhi hukum UE, ketika memproses data tentang individu,” kata Maartje de Graaf, pengacara perlindungan data NOYB, dalam sebuah pernyataan. “Jika suatu sistem tidak dapat memberikan hasil yang akurat dan transparan, maka sistem tersebut tidak dapat digunakan untuk menghasilkan data tentang individu. Teknologinya harus mengikuti persyaratan hukum, bukan sebaliknya.”

Keluhan tersebut juga menimbulkan kekhawatiran mengenai transparansi di pihak OpenAI, yang menunjukkan bahwa perusahaan tersebut tidak memberikan informasi mengenai dari mana data yang dihasilkan mengenai individu berasal atau apakah data ini disimpan tanpa batas waktu. Hal ini sangat penting ketika mempertimbangkan data yang berkaitan dengan individu.

Sekali lagi, hal ini merupakan keluhan dari kelompok advokasi dan regulator Uni Eropa belum memberikan komentar mengenai hal ini. Namun, OpenAI bahwa ChatGPT “terkadang menulis jawaban yang terdengar masuk akal tetapi salah atau tidak masuk akal.” NOYB telah mendekati dan meminta organisasi tersebut untuk menyelidiki masalah ini.

Perusahaan menghadapi keluhan serupa di Polandia, di mana otoritas perlindungan data setempat setelah seorang peneliti tidak bisa mendapatkan bantuan OpenAI untuk mengoreksi informasi pribadi yang salah. Keluhan tersebut menuduh OpenAI melakukan beberapa pelanggaran terhadap GDPR UE, terkait dengan transparansi, hak akses data, dan privasi.

Ada juga Italia. Otoritas perlindungan data Italia dan OpenAI menyimpulkan dengan mengatakan mereka yakin perusahaan tersebut telah melanggar GDPR dalam berbagai cara. Ini termasuk kecenderungan ChatGPT untuk mengarang hal-hal palsu tentang orang lain. Chatbot sebelum OpenAI membuat perubahan tertentu pada perangkat lunak, seperti peringatan baru bagi pengguna dan opsi untuk tidak menggunakan obrolan untuk melatih algoritme. Meskipun tidak lagi dilarang, penyelidikan Italia terhadap ChatGPT terus berlanjut.

OpenAI belum menanggapi keluhan terbaru ini, namun menanggapi peraturan yang dikeluarkan oleh DPA Italia. “Kami ingin AI kami belajar tentang dunia, bukan tentang individu,” . “Kami secara aktif berupaya mengurangi data pribadi dalam melatih sistem kami seperti ChatGPT, yang juga menolak permintaan informasi pribadi atau sensitif tentang orang-orang.”

Fuente