Gambar: blackdovfx/Getty Images

Standar global baru telah dirilis untuk membantu organisasi mengelola risiko mengintegrasikan model bahasa besar (LLM) ke dalam sistem mereka dan mengatasi ambiguitas di sekitar model ini.

Itu kerangka menawarkan panduan untuk berbagai fase di seluruh siklus hidup LLM, yang mencakup “pengembangan, penerapan, dan pemeliharaan,” menurut World Digital Technology Academy (WDTA), yang merilis dokumen tersebut pada hari Jumat. Organisasi nonpemerintah (LSM) yang berpusat di Jenewa tersebut beroperasi di bawah Perserikatan Bangsa-Bangsa dan didirikan tahun lalu untuk mendorong pengembangan standar di ranah digital.

Juga: Memahami RAG: Cara mengintegrasikan LLM AI generatif dengan pengetahuan bisnis Anda

“Standar ini menekankan pendekatan keamanan berlapis-lapis, yang mencakup jaringan, sistem, platform dan aplikasi, model, dan lapisan data,” kata WDTA. “Standar ini memanfaatkan konsep-konsep utama seperti Daftar Bahan Pembelajaran Mesinarsitektur zero trust, dan pemantauan serta audit berkelanjutan. Konsep-konsep ini dirancang untuk memastikan integritas, ketersediaan, kerahasiaan, pengendalian, dan keandalan sistem LLM di seluruh rantai pasokannya.”

Disebut sebagai standar AI-STR-03, kerangka kerja baru ini bertujuan untuk mengidentifikasi dan menilai tantangan dalam mengintegrasikan teknologi kecerdasan buatan (AI), khususnya LLM, dalam ekosistem TI saat ini, kata WDTA. Hal ini penting karena model AI ini dapat digunakan dalam produk atau layanan yang dioperasikan sepenuhnya atau sebagian oleh pihak ketiga, tetapi tidak dikelola oleh mereka.

Juga: Menurut studi IBM, para pemimpin bisnis mulai kehilangan kepercayaan pada TI. Inilah alasannya

Persyaratan keamanan yang terkait dengan struktur sistem LLM — disebut sebagai persyaratan keamanan rantai pasokan, mencakup persyaratan untuk lapisan jaringan, lapisan sistem, lapisan platform dan aplikasi, lapisan model, dan lapisan data. Persyaratan ini memastikan produk beserta sistem, komponen, model, data, dan alatnya terlindungi dari gangguan atau penggantian yang tidak sah selama siklus hidup produk LLM.

WDTA mengatakan hal ini melibatkan penerapan kontrol dan pemantauan berkelanjutan di setiap tahap rantai pasokan. Hal ini juga mengatasi kerentanan umum dalam keamanan middleware untuk mencegah akses tidak sah dan perlindungan terhadap risiko keracunan data pelatihan yang digunakan oleh teknisi. Hal ini selanjutnya menegakkan arsitektur zero-trust untuk mengurangi ancaman internal.

Juga: Pedoman keselamatan menyediakan lapisan pertama perlindungan data yang diperlukan dalam demam emas AI

“Dengan menjaga integritas setiap tahapan, dari akuisisi data hingga penerapan pemasok, konsumen yang menggunakan LLM dapat memastikan produk LLM tetap aman dan dapat dipercaya,” kata WDTA.

Persyaratan keamanan rantai pasokan LLM juga membahas kebutuhan akan ketersediaan, kerahasiaan, kontrol, keandalan, dan visibilitas. Semua ini secara kolektif berfungsi untuk memastikan data yang dikirimkan sepanjang rantai pasokan tidak diungkapkan kepada individu yang tidak berwenang, yang pada akhirnya menciptakan transparansi, sehingga konsumen memahami bagaimana data mereka dikelola.

Ini juga memberikan visibilitas rantai pasokan sehingga, misalnya, jika suatu model diperbarui dengan data pelatihan baru, status model AI — sebelum dan sesudah data pelatihan ditambahkan — didokumentasikan dan dapat dilacak dengan benar.

Mengatasi ambiguitas seputar LLM

Kerangka kerja baru ini dirancang dan ditinjau oleh kelompok kerja yang terdiri dari beberapa perusahaan dan lembaga teknologi, termasuk Microsoft, Google, Meta, Cloud Security Alliance Greater China Region, Nanyang Technological University di Singapura, Tencent Cloud, dan Baidu. Menurut WDTA, ini adalah standar internasional pertama yang memperhatikan keamanan rantai pasokan LLM.

Juga: Transparansi sangat kurang di tengah meningkatnya minat terhadap AI

Kerja sama internasional pada standar terkait AI semakin penting karena AI terus berkembang dan berdampak pada berbagai sektor di seluruh dunia, WDTA menambahkan.

“Mencapai AI yang dapat dipercaya merupakan upaya global, yang menuntut terciptanya perangkat dan proses tata kelola yang efektif yang melampaui batas negara,” kata LSM tersebut. “Standarisasi global memainkan peran penting dalam konteks ini, menyediakan jalan utama untuk mendorong penyelarasan praktik terbaik dan interoperabilitas rezim tata kelola AI.”

Juga: Perusahaan akan membutuhkan tata kelola AI seiring dengan semakin banyaknya model bahasa besar

Ahli strategi teknologi Microsoft, Lars Ruddigkeit, mengatakan kerangka kerja baru itu tidak bertujuan untuk menjadi sempurna tetapi menyediakan landasan bagi standar internasional.

“Kami ingin menetapkan apa yang menjadi target minimum yang harus dicapai,” kata Ruddigkeit. “Saat ini terdapat banyak ambiguitas dan ketidakpastian seputar LLM dan teknologi baru lainnya, yang menyulitkan lembaga, perusahaan, dan pemerintah untuk memutuskan apa yang akan menjadi standar yang bermakna. Standar rantai pasokan WDTA berupaya untuk mewujudkan jalan pertama menuju masa depan yang aman ini.”



Fuente