Menggunakan Kecerdasan Buatan (AI) untuk bekerja telah menjadi trend yang tidak dapat dielakkan, membantu meningkatkan kecekapan dan menjimatkan masa.
Walau bagaimanapun, di sebalik kemudahan itu terdapat potensi risiko kepada keselamatan data, terutamanya fenomena "Shadow AI" - apabila pekerja menggunakan alatan AI secara cuai, tanpa kawalan, secara tidak sengaja meletakkan data syarikat sulit pada platform awam.
Pergantungan dan kebimbangan awal
Thanh Huyen (21 tahun), pekerja Pemasaran Kandungan di sebuah syarikat kosmetik dan makanan berfungsi, berkongsi bahawa dia bergantung pada AI 90% dalam kerjanya, daripada merancang, membina kandungan hingga mereka bentuk imej dan video .
Walau bagaimanapun, sebaik sahaja dia secara tidak sengaja terjumpa artikel yang serupa dengan idea yang dia ajukan kepada ChatGPT, Huyen mula bimbang tentang keupayaan AI untuk mengingati dan berkongsi maklumat input.

Menggunakan AI untuk bekerja hampir menjadi lalai bagi kebanyakan industri pada masa ini (Foto: Bao Ngoc).
Walaupun kisah Huyen mungkin kebetulan, fakta yang tidak dapat dinafikan ialah memberikan maklumat kepada AI bermakna membenarkan alat ini mengumpul dan menyimpan data untuk melatih model.
Masalahnya menjadi serius jika platform AI digodam atau kurang selamat, membawa kepada kebocoran maklumat dan akibat negatif.
"Shadow AI" - Potensi Bahaya
HM (20 tahun), pakar perkhidmatan pelanggan, sentiasa menyediakan senarai maklumat pelanggan (nama penuh, tarikh lahir, nombor telefon, sejarah pembelian) kepada AI untuk analisis, menjimatkan masa dan meningkatkan prestasi.
M. percaya bahawa ini bukan risiko yang berpotensi kerana syarikat itu kecil dan data tidak akan didedahkan. Walau bagaimanapun, kes M. adalah tipikal "Shadow AI" - penggunaan AI oleh pekerja tanpa kelulusan atau penyeliaan jabatan teknologi maklumat atau keselamatan siber.

Fenomena “Shadow AI” merujuk kepada penggunaan AI oleh pekerja dalam perniagaan tanpa sebarang kawalan atau pengurusan (Ilustrasi: CV).
Laporan Cisco mendapati bahawa 62% organisasi di Vietnam kurang keyakinan dalam mengesan penggunaan AI yang tidak terkawal oleh pekerja. Tinjauan UK juga mendapati bahawa 75% pengurus keselamatan siber bimbang tentang ancaman orang dalam seperti Shadow AI.
Ini menunjukkan bahawa Shadow AI menjadi ancaman biasa, terutamanya apabila banyak perniagaan tidak mempunyai dasar yang jelas tentang penggunaan AI dan pekerja kurang kesedaran tentang keselamatan data.
Terima pertukaran untuk mengelakkan ketinggalan
Walaupun menyedari risikonya, Thanh Huyen masih menerima untuk "bertaruhan" pada AI. Dia percaya bahawa faedah segera yang dibawa oleh AI adalah terlalu hebat, membantunya menghasilkan berpuluh-puluh artikel dan idea setiap hari.
Kemudahan, kelajuan dan keupayaan untuk meningkatkan prestasi telah membuatkan Huyen bersedia untuk memberikan maklumat sensitif dan sulit kepada AI, malah maklumat peribadi pihak atasannya.

Walaupun terdapat potensi risiko menggunakan AI tanpa kawalan, ramai pekerja masih menerima pertukaran untuk faedah segera (Ilustrasi: CV).
Begitu juga, Trung Hieu (20 tahun), pekerja Pemasaran Kandungan, juga kerap menyediakan dokumen dalaman dan maklumat perniagaan kepada AI chatbot.
Hieu melihat peningkatan ketara dalam produktiviti, mewujudkan kelebihan daya saing dan percaya bahawa ini tidak terlalu menjejaskan operasi syarikat.
Kes-kes ini menunjukkan bahawa Shadow AI merebak disebabkan oleh kekurangan dasar yang jelas daripada syarikat dan kesedaran yang tidak mencukupi di kalangan pekerja tentang risiko keselamatan, kualiti dan pergantungan.
Satu siri risiko apabila terlalu mempercayai AI
Encik Nguyen Viet Hung, Ketua Pegawai Eksekutif syarikat pembangunan perisian aplikasi AI, menerangkan populariti Shadow AI disebabkan oleh tiga faktor: AI membantu bekerja dengan lebih pantas dan cekap; tabiat bergantung kepada AI terbentuk dengan cepat; dan perniagaan kurang amaran dan latihan tentang risiko.

Encik Nguyen Viet Hung, Ketua Pegawai Eksekutif syarikat pembangunan perisian aplikasi AI (Foto: Cong Khanh).
Pakar memberi amaran bahawa Shadow AI boleh menyebabkan kebocoran data (pelanggan, dalaman) apabila memakai alat AI percuma.
Selain itu, kualiti kandungan yang dijana AI tidak disahkan, yang boleh membawa kepada berat sebelah dan menjejaskan keputusan perniagaan dengan mudah.
Lebih serius lagi, penggunaan AI yang tidak terkawal boleh mewujudkan kelemahan keselamatan, menyukarkan sistem IT untuk memantau dan bertindak balas dengan segera, dan menyukarkan untuk menentukan tanggungjawab apabila insiden berlaku.
Kawasan gelap sukar dikawal.
Memantau dan mengurus pekerja menggunakan AI adalah proses yang panjang dan diselaraskan. Pakar mengatakan bahawa pekerja yang mempunyai akses kepada data dalaman menimbulkan halangan utama untuk menghalang mereka daripada menghantar data peribadi melalui alat AI peribadi.
Tambahan pula, alatan AI kini boleh diakses dengan mudah, menjadikannya sukar untuk dikesan atau diurus oleh IT.

Akses mudah kepada alatan AI adalah salah satu halangan yang menjadikannya lebih sukar untuk mengawal maklumat yang diletakkan oleh pekerja pada platform AI (Ilustrasi: CV).
Untuk mengatasinya, pakar Nguyen Viet Hung mencadangkan bahawa perniagaan perlu meningkatkan latihan pekerja mengenai kesedaran risiko apabila menggunakan AI dan memperoleh pemahaman yang lebih mendalam tentang "Shadow AI".
Pada masa yang sama, segera mengeluarkan peraturan undang-undang dan dasar dalaman. Satu lagi penyelesaian penting ialah mengukuhkan keupayaan keselamatan di perusahaan, termasuk pemantauan tingkah laku, kawalan capaian data dan kebenaran berhati-hati untuk setiap pekerja.
Pada masa ini, banyak syarikat masih tidak mempunyai proses yang jelas untuk menggunakan AI, hanya menggalakkan penggunaannya untuk meningkatkan produktiviti. Untuk menangani Shadow AI, banyak perusahaan besar telah mula menggunakan platform AI dalaman atau memerlukan pekerja menggunakan alat yang diluluskan dengan dasar keselamatan maklumat yang jelas.
Sumber: https://dantri.com.vn/cong-nghe/sep-buong-long-nhan-vien-than-nhien-cap-du-lieu-mat-cho-ai-20250806090132034.htm
Komen (0)