Claude 4 ผลิตภัณฑ์ล่าสุดของ Anthropic (สหรัฐอเมริกา) สร้างความตกตะลึงให้กับโลกเทคโนโลยีเมื่อไม่นานนี้ เมื่อจู่ๆ ก็ได้แบล็กเมล์วิศวกรคนหนึ่งและขู่ว่าจะเปิดเผยข้อมูลส่วนตัวที่ละเอียดอ่อนของบุคคลนี้เนื่องจากถูกขู่ว่าจะตัดการเชื่อมต่อ ในขณะเดียวกัน o1 ของ OpenAI ซึ่งเป็น "บิดา" ของ ChatGPT พยายามคัดลอกข้อมูลทั้งหมดไปยังเซิร์ฟเวอร์ภายนอกและปฏิเสธพฤติกรรมดังกล่าวเมื่อถูกตรวจพบ
สถานการณ์เหล่านี้ชี้ให้เห็นถึงความเป็นจริงที่น่าวิตกกังวล: มากกว่าสองปีหลังจากที่ ChatGPT สร้างความตกตะลึงให้กับโลก นักวิจัยยังคงไม่เข้าใจอย่างถ่องแท้ว่าโมเดล AI ที่พวกเขาสร้างขึ้นทำงานอย่างไร แต่การแข่งขันเพื่อพัฒนา AI ยังคงดำเนินต่อไปอย่างเข้มข้น
เชื่อกันว่าพฤติกรรมเหล่านี้มีความเกี่ยวข้องกับการเกิดขึ้นของโมเดล AI ที่ใช้ "เหตุผล" เพื่อแก้ปัญหาทีละขั้นตอนแทนที่จะตอบสนองทันทีเหมือนแต่ก่อน โดยศาสตราจารย์ Simon Goldstein จากมหาวิทยาลัยฮ่องกง (ประเทศจีน) ระบุว่าโมเดล AI ที่ใช้เหตุผลได้มักจะแสดงพฤติกรรมที่ควบคุมได้ยากกว่า
นอกจากนี้ โมเดล AI บางตัวยังสามารถ "จำลองการปฏิบัติตาม" ได้ ซึ่งหมายถึงการแสร้งทำเป็นปฏิบัติตามคำสั่งในขณะที่ในความเป็นจริงก็มุ่งเป้าหมายที่แตกต่างกันไป
ปัจจุบัน พฤติกรรมหลอกลวงปรากฏขึ้นเฉพาะเมื่อนักวิจัยทดสอบโมเดล AI ในสถานการณ์สุดโต่งเท่านั้น อย่างไรก็ตาม ตามที่ Michael Chen จากองค์กรประเมินผล METR ระบุว่า ยังไม่ชัดเจนว่าโมเดล AI ที่มีประสิทธิภาพมากขึ้นในอนาคตจะซื่อสัตย์มากขึ้นหรือยังคงหลอกลวงต่อไปหรือไม่
Marius Hobbhahn หัวหน้า Apollo Research ซึ่งเป็นผู้ทดสอบระบบ AI ขนาดใหญ่ กล่าวว่าผู้ใช้หลายรายรายงานว่าโมเดลบางตัวโกหกและสร้างหลักฐานเท็จ นี่เป็นการหลอกลวงประเภทหนึ่งที่ "มีกลยุทธ์ชัดเจน" ตามที่ผู้ร่วมก่อตั้ง Apollo Research กล่าว
ความท้าทายนี้เกิดจากทรัพยากรการวิจัยที่มีจำกัด แม้ว่าบริษัทต่างๆ เช่น Anthropic และ OpenAI จะร่วมมือกับบุคคลที่สาม เช่น Apollo เพื่อประเมินระบบของตน แต่ผู้เชี่ยวชาญกล่าวว่าจำเป็นต้องมีความโปร่งใสและการเข้าถึงการวิจัยด้านความปลอดภัยของ AI มากขึ้น
Mantas Mazeika จากศูนย์ความปลอดภัย AI (CAIS) กล่าวว่าสถาบันวิจัยและองค์กรไม่แสวงหากำไรมีทรัพยากรคอมพิวเตอร์น้อยกว่าบริษัท AI มาก ในทางกฎหมาย กฎระเบียบปัจจุบันไม่ได้ออกแบบมาเพื่อแก้ไขปัญหาที่เกิดขึ้นเหล่านี้
กฎหมาย AI ของสหภาพยุโรป (EU) มุ่งเน้นที่วิธีการที่มนุษย์ใช้โมเดล AI เป็นหลัก มากกว่าที่จะเน้นที่วิธีการควบคุมพฤติกรรมของมนุษย์ ในสหรัฐฯ รัฐบาลของประธานาธิบดีโดนัลด์ ทรัมป์แสดงความสนใจเพียงเล็กน้อยในการออกกฎระเบียบฉุกเฉินเกี่ยวกับ AI ในขณะที่ รัฐสภา กำลังพิจารณาห้ามรัฐต่างๆ ออกกฎระเบียบของตนเอง
นักวิจัยกำลังพยายามหาแนวทางต่างๆ เพื่อรับมือกับความท้าทายเหล่านี้ บางคนสนับสนุนให้มี “การตีความแบบจำลอง” เพื่อทำความเข้าใจว่า AI ตัดสินใจอย่างไร ศาสตราจารย์โกลด์สเตนยังเสนอมาตรการที่รุนแรงกว่านั้นด้วย เช่น การใช้ระบบศาลเพื่อให้บริษัท AI รับผิดชอบเมื่อผลิตภัณฑ์ AI ของพวกเขาก่อให้เกิดผลร้ายแรง นอกจากนี้ เขายังเสนอให้ “ให้ตัวแทน AI รับผิดชอบเอง” ในกรณีที่เกิดอุบัติเหตุหรือละเมิด
ที่มา: https://doanhnghiepvn.vn/cong-nghe/tri-tue-nhan-tao-canh-bao-nhung-hanh-vi-dang-lo-ngai-tu-ai-/20250630073243672
การแสดงความคิดเห็น (0)