Data Pelatihan AI Microsoft Terungkap
Microsoft sedang menangani kebocoran data signifikan yang disebabkan oleh peneliti AI-nya. Tim AI perusahaan, yang mengunggah data pelatihan agar peneliti lain dapat melatih model AI untuk pengenalan gambar, secara tidak sengaja mengekspos data sensitif tersebut. Data yang bocor mencakup banyak ‘rahasia, kunci pribadi, kata sandi, dan lebih dari 30.000 pesan internal Microsoft Teams’. Informasi tersebut berasal dari Wiz, sebuah perusahaan keamanan cloud, yang pertama kali menyadari pelanggaran data ini.
Kebocoran Data Microsoft: 38 TB Data Pribadi Terungkap Melalui Token SAS
Microsoft sangat bersemangat dalam meningkatkan upaya di bidang AI. Perusahaan menginvestasikan miliaran dolar pada OpenAI untuk membangun kemitraan yang solid dalam penggunaan dan pengembangan ChatGPT. Hasilnya, perusahaan memperbarui Bing Assistant-nya yang kini didukung oleh ChatGPT 4. Perusahaan juga mengintegrasikan AI di sebagian besar layanannya, memulai apa yang kita sebut sebagai revolusi AI dalam ekosistemnya. Namun, beberapa kecelakaan dapat terjadi ketika perusahaan mencoba mendorong dan mengembangkan AI-nya. Hal itulah yang terjadi sehubungan dengan kebocoran data besar-besaran ini.
Microsoft, dalam laporan resminya, mencatat bahwa “tidak ada data pelanggan yang terungkap, dan tidak ada layanan internal lainnya yang berisiko karena masalah ini”. Perusahaan juga menunjukkan bahwa tidak ada tindakan yang diperlukan oleh pelanggan tersebut. Tautan ke data yang menyertakan file dibuat menggunakan fitur di Azure yang disebut “token SAS”. Apa yang disebut “Token SAS” memungkinkan pengguna membuat tautan yang dapat dibagikan dengan cepat dan mudah. Wiz pertama kali menemukan akses ke data tersebut pada 22 Juni dan memberi tahu Microsoft. Token tersebut dicabut keesokan harinya dan Microsoft mengatakan telah memperbaiki masalah tersebut, menyesuaikan token SAS yang lebih permisif daripada yang dimaksudkan.
“Informasi yang terungkap terdiri dari informasi unik dua mantan karyawan Microsoft dan stasiun kerja mantan karyawan tersebut,” kata perusahaan itu. “Tidak ada data pelanggan yang terekspos, dan tidak ada layanan Microsoft lainnya yang terkena risiko karena masalah ini. Pelanggan tidak perlu mengambil tindakan tambahan apa pun untuk tetap aman. Seperti rahasia lainnya, token SAS perlu dibuat dan ditangani dengan tepat. Seperti biasa, kami sangat menganjurkan pelanggan untuk mengikuti praktik terbaik kami saat menggunakan token SAS untuk meminimalkan risiko akses atau penyalahgunaan yang tidak diinginkan.” – Pejabat Microsoft.
Perlombaan untuk AI Menimbulkan Risiko atas Data Sensitif – Kecuali Jika Tindakan Keamanan Ekstra Diadopsi
Sayangnya, dengan munculnya AI, kejadian seperti ini bisa lebih sering terjadi mulai sekarang. Perusahaan-perusahaan menghadapi risiko baru ketika mencoba memanfaatkan kekuatan AI secara lebih luas. Karena semakin banyak teknisi mereka yang akan bekerja dengan data pelatihan dalam jumlah besar, hal ini memerlukan pemeriksaan keamanan dan perlindungan tambahan.
Seperti yang Wiz tunjukkan, token SAS saat ini menimbulkan risiko keamanan. Mereka mengizinkan berbagi informasi dengan identitas eksternal yang tidak teridentifikasi. Untuk meningkatkan keamanan SAS, perusahaan perlu memilih Layanan SAS dengan Kebijakan Akses Tersimpan. Fitur khusus ini menghubungkan token SAS ke kebijakan sisi server. Ini memberikan kemampuan untuk mengelola kebijakan dan mencabutnya secara terpusat. Token Akun SAS standar tidak memiliki tata kelola dan keamanan. Oleh karena itu, kesalahan pembuatan Token dapat dengan mudah luput dari perhatian dan mengekspos sejumlah besar data.
Mudah-mudahan, Microsoft akan belajar dari kesalahan tersebut dan meningkatkan langkah-langkah keamanan untuk menghindari kebocoran data seperti ini di masa mendatang. Semua perusahaan lain yang bekerja dengan AI harus melakukan hal yang sama untuk menghindari sejumlah besar data sensitif jatuh ke tangan orang jahat.
Sumber =”https://www.gizchina.com/2023/09/20/massive-data-leak-microsofts-ai-training-data-exposed/”
Posting Komentar untuk "Data Pelatihan AI Microsoft Terungkap"