ตามรายงานของ The Telegraph พบว่ามีการแชทส่วนตัวมากกว่า 500 รายการที่ใช้ ChatGPT ปรากฏในผลการค้นหาของ Google ซึ่งทำให้เกิดความกังวลเกี่ยวกับความเป็นส่วนตัวและความปลอดภัยของข้อมูล
การสนทนาเหล่านี้มีเนื้อหาละเอียดอ่อน เช่น การสนทนาภายใน พฤติกรรมฉ้อโกง แผนการโจมตีทางไซเบอร์ และแม้แต่คำถามจากแพทย์และทนายความ
เหตุการณ์นี้ถูกค้นพบโดยนักวิจัยออนไลน์ Henk van Ess ซึ่งกล่าวว่าอาจมีบทสนทนาอื่นๆ อีกมากถึง 110,000 บทสนทนาที่ยังคงถูกจัดเก็บไว้บน Wayback Machine ซึ่งเป็นเครื่องมือเก็บถาวรเว็บของ Internet Archive
เดิมทีแชทเหล่านี้จะถูกแชร์ผ่านฟีเจอร์ "แชร์แชท" เป็นลิงก์ URL สาธารณะ
อย่างไรก็ตาม OpenAI ซึ่งเป็นบริษัทที่พัฒนา ChatGPT อนุญาตให้ลิงก์เหล่านี้ถูกสร้างดัชนีบน Google และเครื่องมือค้นหาอื่นๆ ส่งผลให้ผู้ใช้แชร์ข้อมูลส่วนบุคคลโดยไม่ตั้งใจ
OpenAI กำลังดำเนินการลบเนื้อหาที่ถูก Google ขูดออกไป
สัปดาห์นี้ OpenAI ได้ปิดการใช้งานความสามารถในการจัดทำดัชนีเนื้อหาที่แชร์ และกำลังดำเนินการลบเนื้อหาที่ Google ค้นหาไปแล้ว
“ฟีเจอร์การแชร์นี้สร้างความเสี่ยงมากเกินไปที่ผู้ใช้จะเผลอเปิดเผยเนื้อหาส่วนตัวสู่สาธารณะ” เดน สตัคกี้ ประธานเจ้าหน้าที่ฝ่ายความปลอดภัยสารสนเทศของ OpenAI ยอมรับ “เราจะยกเลิกตัวเลือกนี้ทั้งหมด”
นอกจากนี้ แชทที่รั่วไหลบางส่วนยังเผยให้เห็นนักเรียนที่ใช้ ChatGPT ในทางที่ผิดเพื่อโกงเอกสาร ในขณะที่แชทอื่นๆ เปิดเผยข้อมูลส่วนตัวหรือเอกสารที่ละเอียดอ่อน
Sam Altman ซีอีโอของ OpenAI ยอมรับว่า ChatGPT ไม่มีกลไกการรักษาความปลอดภัยแบบเดียวกับทนายความ แพทย์ หรือที่ปรึกษา แม้ว่าหลายคนจะใช้แชทบอทเป็น "ที่ปรึกษา" ก็ตาม
ตามที่ Cybernews รายงาน ผู้ใช้ Reddit บางรายได้แชร์ว่าพวกเขาเห็นแชทที่มีชื่อนามสกุล หมายเลขโทรศัพท์ อีเมล ที่อยู่ และประวัติการทำงานโดยละเอียด
"ฉันเห็นคนๆ หนึ่งกำลังสร้างประวัติย่อโดยสมบูรณ์พร้อมชื่อ หมายเลขโทรศัพท์ อีเมล สถานที่ และประวัติการทำงาน" ผู้ใช้ Reddit รายหนึ่งเขียน
นอกจากนี้ ยังมีการรั่วไหลของบทสนทนาที่มีเนื้อหาส่วนตัว เรื่องราวส่วนตัว ชื่อเด็ก รูปถ่าย ที่อยู่บ้าน และแม้กระทั่งเสียงของผู้ใช้ สร้างความตกตะลึงให้กับผู้คนจำนวนมาก
ที่มา: https://nld.com.vn/phat-hien-gay-soc-tren-chatgpt-khien-nguoi-dung-choang-vang-196250804134031378.htm
การแสดงความคิดเห็น (0)