Keselamatan dan Etika dalam AI - Pendekatan Meltwater
Diterbitkan: 2023-08-16AI mengubah dunia kita, menawarkan kepada kita kemampuan baru yang luar biasa seperti pembuatan konten otomatis dan analisis data, serta asisten AI yang dipersonalisasi. Sementara teknologi ini membawa peluang yang belum pernah terjadi sebelumnya, ini juga menimbulkan masalah keamanan yang signifikan yang harus ditangani untuk memastikan penggunaannya yang andal dan adil.
Di Meltwater, kami percaya bahwa memahami dan mengatasi tantangan keamanan AI ini sangat penting untuk kemajuan yang bertanggung jawab dari teknologi transformatif ini.
Perhatian utama untuk keamanan AI berkisar pada bagaimana kami membuat sistem ini andal, etis, dan bermanfaat bagi semua. Ini berasal dari kemungkinan sistem AI menyebabkan kerusakan yang tidak diinginkan, membuat keputusan yang tidak selaras dengan nilai-nilai kemanusiaan, digunakan dengan jahat, atau menjadi sangat kuat sehingga menjadi tidak terkendali.
Daftar isi
Kekokohan
Penyelarasan
Bias dan Keadilan
Interpretabilitas
Melayang
Jalan ke Depan untuk Keamanan AI
Kekokohan
Kekokohan AI mengacu pada kemampuannya untuk bekerja dengan baik secara konsisten bahkan dalam kondisi yang berubah atau tidak terduga.
Jika model AI tidak kuat, model tersebut dapat dengan mudah gagal atau memberikan hasil yang tidak akurat saat terpapar data atau skenario baru di luar sampel yang dilatihnya. Oleh karena itu, aspek inti keamanan AI adalah menciptakan model tangguh yang dapat mempertahankan tingkat performa tinggi di berbagai kondisi.
Di Meltwater, kami menangani ketahanan AI baik pada tahap pelatihan maupun inferensi. Berbagai teknik seperti pelatihan permusuhan, kuantifikasi ketidakpastian, dan pembelajaran federasi digunakan untuk meningkatkan ketahanan sistem AI dalam situasi yang tidak pasti atau permusuhan.
Penyelarasan
Dalam konteks ini, "penyelarasan" mengacu pada proses memastikan tujuan dan keputusan sistem AI selaras dengan nilai-nilai manusia, sebuah konsep yang dikenal sebagai penyelarasan nilai.
AI yang tidak selaras dapat membuat keputusan yang menurut manusia tidak diinginkan atau berbahaya, meskipun optimal menurut parameter pembelajaran sistem. Untuk mencapai AI yang aman, para peneliti bekerja pada sistem yang memahami dan menghargai nilai-nilai manusia selama proses pengambilan keputusan, bahkan saat mereka belajar dan berkembang.
Membangun sistem AI yang selaras dengan nilai membutuhkan interaksi dan umpan balik yang berkelanjutan dari manusia. Meltwater menggunakan teknik Human In The Loop (HITL) secara ekstensif, menggabungkan umpan balik manusia pada berbagai tahap alur kerja pengembangan AI kami, termasuk pemantauan kinerja model secara online.
Teknik seperti pembelajaran penguatan terbalik, pembelajaran penguatan terbalik kooperatif, dan permainan bantuan diadopsi untuk mempelajari dan menghargai nilai dan preferensi manusia. Kami juga memanfaatkan teori agregasi dan pilihan sosial untuk menangani nilai-nilai yang saling bertentangan di antara manusia yang berbeda.
Bias dan Keadilan
Salah satu masalah kritis dengan AI adalah potensinya untuk memperkuat bias yang ada, yang mengarah pada hasil yang tidak adil.
Bias dalam AI dapat disebabkan oleh berbagai faktor, termasuk (namun tidak terbatas pada) data yang digunakan untuk melatih sistem, desain algoritme, atau konteks penerapannya. Jika sistem AI dilatih pada data historis yang berisi keputusan bias, sistem dapat secara tidak sengaja mengabadikan bias ini.
Contohnya adalah pemilihan pekerjaan AI yang mungkin secara tidak adil mendukung jenis kelamin tertentu karena dilatih berdasarkan keputusan perekrutan sebelumnya yang bias. Mengatasi keadilan berarti melakukan upaya yang disengaja untuk meminimalkan bias dalam AI, sehingga memastikan AI memperlakukan semua individu dan kelompok secara adil.
Meltwater melakukan analisis bias pada semua dataset pelatihan kami, baik sumber internal maupun sumber terbuka, dan secara berlawanan mendorong semua Model Bahasa Besar (LLM) untuk mengidentifikasi bias. Kami menggunakan Pengujian Perilaku secara ekstensif untuk mengidentifikasi masalah sistemik dalam model sentimen kami, dan kami menerapkan pengaturan moderasi konten yang paling ketat di semua LLM yang digunakan oleh asisten AI kami. Beberapa definisi keadilan statistik dan komputasi, termasuk (namun tidak terbatas pada) paritas demografis, kesempatan setara, dan keadilan individu, sedang dimanfaatkan untuk meminimalkan dampak bias AI dalam produk kami.
Interpretabilitas
Transparansi dalam AI, sering disebut sebagai interpretabilitas atau penjelasan, merupakan pertimbangan keamanan yang penting. Ini melibatkan kemampuan untuk memahami dan menjelaskan bagaimana sistem AI membuat keputusan.
Tanpa interpretabilitas, rekomendasi sistem AI dapat terlihat seperti kotak hitam, membuatnya sulit untuk dideteksi, didiagnosis, dan diperbaiki kesalahan atau bias. Akibatnya, mendorong interpretabilitas dalam sistem AI meningkatkan akuntabilitas, meningkatkan kepercayaan pengguna, dan mendorong penggunaan AI yang lebih aman. Meltwater mengadopsi teknik standar, seperti LIME dan SHAP, untuk memahami perilaku dasar sistem AI kami dan membuatnya lebih transparan.
Melayang
Penyimpangan AI, atau penyimpangan konsep, mengacu pada perubahan pola data input dari waktu ke waktu. Perubahan ini dapat menyebabkan penurunan performa model AI, yang berdampak pada keandalan dan keamanan prediksi atau rekomendasinya.
Mendeteksi dan mengelola penyimpangan sangat penting untuk menjaga keamanan dan ketahanan sistem AI di dunia yang dinamis. Penanganan penyimpangan yang efektif membutuhkan pemantauan kinerja sistem secara terus-menerus dan memperbarui model jika diperlukan.
Meltwater memantau distribusi inferensi yang dibuat oleh model AI kami secara real time untuk mendeteksi penyimpangan model dan masalah kualitas data yang muncul.
Jalan ke Depan untuk Keamanan AI
Keamanan AI adalah tantangan multifaset yang membutuhkan upaya kolektif dari para peneliti, pengembang AI, pembuat kebijakan, dan masyarakat pada umumnya.
Sebagai sebuah perusahaan, kita harus berkontribusi untuk menciptakan budaya yang memprioritaskan keamanan AI. Ini termasuk menetapkan norma keselamatan di seluruh industri, mengembangkan budaya keterbukaan dan akuntabilitas, dan komitmen teguh untuk menggunakan AI guna meningkatkan kemampuan kami dengan cara yang selaras dengan nilai-nilai yang dipegang teguh oleh Meltwater.
Dengan komitmen berkelanjutan ini datanglah tanggung jawab, dan tim AI Meltwater telah menetapkan serangkaian Prinsip AI Etis Meltwater yang terinspirasi oleh Google dan OECD. Prinsip-prinsip ini menjadi dasar bagaimana Meltwater melakukan penelitian dan pengembangan dalam Kecerdasan Buatan, Pembelajaran Mesin, dan Ilmu Data.
- Memberi manfaat bagi masyarakat setiap kali ada peluang yang muncul dengan cara yang inklusif dan berkelanjutan.
- Bias dan penyimpangan adalah cacat. Mereka gagal bisnis dan pelanggan kami.
- Keselamatan, privasi, dan keamanan sebagai warga negara kelas satu.
- Lacak semuanya dan bertanggung jawab. Transparansi adalah kuncinya.
- Kami adalah ilmuwan dan insinyur; semuanya harus dibuktikan dan diuji.
- Gunakan open source jika memungkinkan; periksa semuanya dan anggap itu tidak aman.
Meltwater telah menjalin kemitraan dan keanggotaan untuk semakin memperkuat komitmennya dalam mendorong praktik AI yang beretika.
- Meltwater mendirikan Dewan Penasihat Ilmiah (SAB), yang merupakan tim peneliti ilmiah terkemuka dan profesional yang menawarkan panduan tentang strategi AI Meltwater
- Meltwater mematuhi panduan Dewan PR untuk AI Generatif yang diperkenalkan pada April 2023
- Meltwater membantu merek-merek yang mematuhi Kerangka Dasar & Kesesuaian Keamanan Merek WAF GARM dengan menyediakan beberapa model AI untuk mendeteksi konten berbahaya, kasar, dan tidak aman dalam teks, audio, gambar, dan video, termasuk kasus penggunaan misinformasi melalui kemitraan Newsguard kami.
Kami sangat bangga dengan sejauh mana Meltwater telah hadir dalam menghadirkan AI etis kepada pelanggan. Kami percaya Meltwater siap untuk terus memberikan inovasi terobosan untuk merampingkan perjalanan intelijen di masa depan dan bersemangat untuk terus mengambil peran kepemimpinan dalam memperjuangkan prinsip kami secara bertanggung jawab dalam pengembangan AI, mendorong transparansi berkelanjutan, yang mengarah pada kepercayaan yang lebih besar di antara pelanggan.