Komite Sementara Internal Senat untuk Kecerdasan Buatan di Brasil (CTIA) memiliki waktu hingga 23 Mei untuk menyelesaikan pekerjaannya mengenai rancangan undang-undang yang mengatur penggunaan teknologi di negara tersebut. Laporan awal, yang disampaikan Rabu, 24 lalu oleh pelapor Eduardo Gomes (PL- TO), dapat mengalami perubahan dan menerima amandemen hingga tanggal 9. Teks ini merupakan proyek alternatif yang mengelompokkan proposal yang berbeda mengenai topik tersebut, terutama yang diajukan oleh Presiden DPR, senator Rodrigo Pacheco (PSD -MG).

Tujuan dari Komisi ini, yang dibentuk pada tahun 2023 atas permintaan Pacheco, adalah untuk menetapkan standar guna memastikan bahwa alat-alat AI aman dan dapat diandalkan, “demi kepentingan umat manusia, rezim demokratis, dan pengembangan ilmu pengetahuan dan teknologi.” Dipimpin oleh senator Carlos Viana (Podemos-MG), tim ini mengadakan serangkaian dengar pendapat publik untuk memperdebatkan penerapan, manfaat dan risiko penggunaan teknologi di berbagai sektor profesional dan sosial.

Menurut pelapor, dokumen yang disajikan bertujuan untuk melindungi hak-hak dasar tanpa merugikan inovasi dan perkembangan teknologi di negara tersebut, menurut Gomes, penting untuk membedakan apa yang bersifat manusiawi dan apa yang dibuat-buat untuk melindungi “cara kreatif Brasil” dan ” Informasi Integritas”. Oleh karena itu, teks tersebut membahas tentang hak cipta, hak atas privasi, menetapkan koreksi bias untuk menghindari diskriminasi, memberikan perlindungan bagi pekerja dan juga mendorong inovasi berkelanjutan.

Setelah masa analisis oleh panitia sementara berakhir, naskah tersebut akan dibahas dalam sidang pleno dan, jika disetujui, akan dibawa ke Kamar Deputi, yang mungkin akan menghadapi kesulitan dalam pemrosesannya. Seperti yang ditunjukkan Estadão, dalam pandangan ketua DPR, wakil Arthur Lira (PP-AL), proyek Senat dapat menghambat kapasitas inovasi pengembang AI.

Regulasi AI di Brasil

Poin pertama dari proyek ini adalah definisi dasar penggunaan teknologi pengembangan AI di negara tersebut. Teks tersebut menetapkan bahwa sentralitas pribadi manusia, penghormatan terhadap hak asasi manusia, demokrasi dan kebebasan berekspresi adalah hal yang mendasar. Penting juga untuk menjamin perlindungan lingkungan, kesetaraan, penghargaan atas pekerjaan manusia, perkembangan ekonomi dan teknologi, privasi, akses terhadap informasi dan perlindungan kelompok rentan.

Untuk mencapai tujuan ini, proposal tersebut menetapkan bahwa siklus hidup alat harus diawasi oleh manusia, agen yang mengembangkan sistem AI harus transparan dan akuntabel, selain mencegah dan memitigasi risiko dan kerusakan individu, sosial dan ekonomi. Teks tersebut juga menyatakan bahwa orang-orang yang terkena dampak sistem memiliki hak atas informasi sebelumnya tentang interaksi dengan alat kecerdasan buatan.

Namun dalam empat kasus tertentu, undang-undang tersebut tidak berlaku: ketika penggunaan alat-alat tersebut untuk tujuan pribadi dan non-ekonomi, untuk pertahanan nasional, alat-alat tersebut memiliki format yang terbuka dan bebas, dengan pengecualian untuk alat-alat yang dianggap berisiko tinggi, atau mereka mengintegrasikan kegiatan pengujian di luar sirkulasi pasar.

Peraturan mengenai aktivitas keamanan publik juga direncanakan, yang hanya dapat menggunakan sistem identifikasi biometrik jarak jauh di bawah izin pengadilan. Teknologi tersebut dapat digunakan untuk mencari korban kejahatan atau orang hilang, dalam hal penuntutan terhadap tindak pidana yang ancaman pidananya paling lama di atas dua tahun atau tindak pidana dalam perbuatan.

Untuk menjamin pengawasan dan penerapan undang-undang, proyek ini juga menciptakan Peraturan dan Sistem Tata Kelola Kecerdasan Buatan Nasional (SIA), yang akan dikoordinasikan oleh otoritas yang ditunjuk oleh pemerintah federal. Dengan demikian, kriteria evaluasi sistem AI akan ditentukan untuk mengidentifikasi risiko setiap teknologi. Pengembang AI masih diwajibkan untuk berbagi data mengenai dampak algoritme terhadap fungsi alat tersebut, serta mengidentifikasi kemungkinan dan tingkat keparahan konsekuensi yang merugikan.

Perusahaan yang bertanggung jawab atas AI yang dianggap berisiko tinggi, yang berdampak pada pelaksanaan hak dan kebebasan, berdampak pada kelompok rentan, atau menimbulkan risiko terhadap integritas fisik, harus menjaga kontak dengan otoritas publik untuk mendorong uji keandalan dan pemantauan sistem secara terus-menerus.

Teknologi dengan risiko berlebihan akan dilarang. Sistem tersebut, menurut proposal, tidak dapat:

– mengadopsi teknik bawah sadar yang mendorong perilaku yang merugikan atau membahayakan kesehatan atau keselamatan diri sendiri atau orang lain;

– mengeksploitasi orang-orang yang rentan karena usia, situasi sosial ekonomi, cacat fisik atau mental;

– memungkinkan produksi atau penyebaran materi pelecehan seksual terhadap anak;

– memberi peringkat atau mengklasifikasikan orang, berdasarkan perilaku atau kepribadian, berdasarkan akses terhadap barang dan kebijakan publik;

– mengevaluasi ciri-ciri kepribadian atau perilaku masa lalu, seperti catatan kriminal, untuk menilai risiko pelanggaran atau terulangnya kembali;

– mengembangkan senjata otonom yang tidak dapat dikendalikan oleh manusia.

Sanksi yang diberikan kepada perusahaan atau individu yang tidak mematuhi peraturan adalah peringatan, denda hingga R$50 juta per pelanggaran atau 2% dari pendapatan bisnis, publikasi ketidakberesan, larangan berpartisipasi dalam rezim sandbox – lingkungan eksperimental – peraturan hingga lima tahun, penangguhan pengembangan dan pasokan AI dan larangan pemrosesan beberapa database.

Selain itu, pelanggaran dapat dilindungi oleh Undang-Undang Perlindungan Data Umum (LGPD) dan perusahaan yang menyebabkan kerugian kolektif atau individu harus memberikan kompensasi kepada korban terlepas dari tingkat otonomi sistem. Organisasi tidak akan dianggap bersalah jika terbukti menggunakan sistem oleh pihak ketiga dengan tujuan untuk merugikan orang lain.

Kerangka peraturan AI juga mengatur penerapan tata kelola dan langkah-langkah pengaturan mandiri bagi inisiatif swasta untuk menetapkan kriteria teknis pada sistem tertentu dan berbagi dokumentasi dengan SIA, terutama mengenai risiko yang tidak dapat dimitigasi, dampak lingkungan dan sosial dari teknologi tersebut. dalam pertanyaan.

Fuente