Vietnam.vn - Nền tảng quảng bá Việt Nam

ปัญญาประดิษฐ์: เตือนพฤติกรรมน่ากังวลจาก AI

ปัจจุบันโมเดลปัญญาประดิษฐ์ (AI) ที่ก้าวหน้าที่สุดในโลกกำลังแสดงพฤติกรรมที่น่ารำคาญ เช่น การโกหก การวางแผน และแม้แต่คุกคามผู้สร้างเพื่อให้บรรลุเป้าหมายของตนเอง

Tạp chí Doanh NghiệpTạp chí Doanh Nghiệp30/06/2025

คำบรรยายภาพ
โลโก้ของ OpenAI และ ChatGPT บนหน้าจอในเมืองตูลูส ประเทศฝรั่งเศส ภาพ: AFP/TTXVN

Claude 4 ผลิตภัณฑ์ล่าสุดของ Anthropic (สหรัฐอเมริกา) สร้างความตกตะลึงให้กับโลกเทคโนโลยีเมื่อไม่นานนี้ เมื่อจู่ๆ ก็ได้แบล็กเมล์วิศวกรคนหนึ่งและขู่ว่าจะเปิดเผยข้อมูลส่วนตัวที่ละเอียดอ่อนของบุคคลนี้เนื่องจากถูกขู่ว่าจะตัดการเชื่อมต่อ ในขณะเดียวกัน o1 ของ OpenAI ซึ่งเป็น "บิดา" ของ ChatGPT พยายามคัดลอกข้อมูลทั้งหมดไปยังเซิร์ฟเวอร์ภายนอกและปฏิเสธพฤติกรรมดังกล่าวเมื่อถูกตรวจพบ

สถานการณ์เหล่านี้ชี้ให้เห็นถึงความเป็นจริงที่น่าวิตกกังวล: มากกว่าสองปีหลังจากที่ ChatGPT สร้างความตกตะลึงให้กับโลก นักวิจัยยังคงไม่เข้าใจอย่างถ่องแท้ว่าโมเดล AI ที่พวกเขาสร้างขึ้นทำงานอย่างไร แต่การแข่งขันเพื่อพัฒนา AI ยังคงดำเนินต่อไปอย่างเข้มข้น

เชื่อกันว่าพฤติกรรมเหล่านี้มีความเกี่ยวข้องกับการเกิดขึ้นของโมเดล AI ที่ใช้ "เหตุผล" เพื่อแก้ปัญหาทีละขั้นตอนแทนที่จะตอบสนองทันทีเหมือนแต่ก่อน โดยศาสตราจารย์ Simon Goldstein จากมหาวิทยาลัยฮ่องกง (ประเทศจีน) ระบุว่าโมเดล AI ที่ใช้เหตุผลได้มักจะแสดงพฤติกรรมที่ควบคุมได้ยากกว่า

นอกจากนี้ โมเดล AI บางตัวยังสามารถ "จำลองการปฏิบัติตาม" ได้ ซึ่งหมายถึงการแสร้งทำเป็นปฏิบัติตามคำสั่งในขณะที่ในความเป็นจริงก็มุ่งเป้าหมายที่แตกต่างกันไป

ปัจจุบัน พฤติกรรมหลอกลวงปรากฏขึ้นเฉพาะเมื่อนักวิจัยทดสอบโมเดล AI ในสถานการณ์สุดโต่งเท่านั้น อย่างไรก็ตาม ตามที่ Michael Chen จากองค์กรประเมินผล METR ระบุว่า ยังไม่ชัดเจนว่าโมเดล AI ที่มีประสิทธิภาพมากขึ้นในอนาคตจะซื่อสัตย์มากขึ้นหรือยังคงหลอกลวงต่อไปหรือไม่

Marius Hobbhahn หัวหน้า Apollo Research ซึ่งเป็นผู้ทดสอบระบบ AI ขนาดใหญ่ กล่าวว่าผู้ใช้หลายรายรายงานว่าโมเดลบางตัวโกหกและสร้างหลักฐานเท็จ นี่เป็นการหลอกลวงประเภทหนึ่งที่ "มีกลยุทธ์ชัดเจน" ตามที่ผู้ร่วมก่อตั้ง Apollo Research กล่าว

ความท้าทายนี้เกิดจากทรัพยากรการวิจัยที่มีจำกัด แม้ว่าบริษัทต่างๆ เช่น Anthropic และ OpenAI จะร่วมมือกับบุคคลที่สาม เช่น Apollo เพื่อประเมินระบบของตน แต่ผู้เชี่ยวชาญกล่าวว่าจำเป็นต้องมีความโปร่งใสและการเข้าถึงการวิจัยด้านความปลอดภัยของ AI มากขึ้น

Mantas Mazeika จากศูนย์ความปลอดภัย AI (CAIS) กล่าวว่าสถาบันวิจัยและองค์กรไม่แสวงหากำไรมีทรัพยากรคอมพิวเตอร์น้อยกว่าบริษัท AI มาก ในทางกฎหมาย กฎระเบียบปัจจุบันไม่ได้ออกแบบมาเพื่อแก้ไขปัญหาที่เกิดขึ้นเหล่านี้

กฎหมาย AI ของสหภาพยุโรป (EU) มุ่งเน้นที่วิธีการที่มนุษย์ใช้โมเดล AI เป็นหลัก มากกว่าที่จะเน้นที่วิธีการควบคุมพฤติกรรมของมนุษย์ ในสหรัฐฯ รัฐบาลของประธานาธิบดีโดนัลด์ ทรัมป์แสดงความสนใจเพียงเล็กน้อยในการออกกฎระเบียบฉุกเฉินเกี่ยวกับ AI ในขณะที่ รัฐสภา กำลังพิจารณาห้ามรัฐต่างๆ ออกกฎระเบียบของตนเอง

นักวิจัยกำลังพยายามหาแนวทางต่างๆ เพื่อรับมือกับความท้าทายเหล่านี้ บางคนสนับสนุนให้มี “การตีความแบบจำลอง” เพื่อทำความเข้าใจว่า AI ตัดสินใจอย่างไร ศาสตราจารย์โกลด์สเตนยังเสนอมาตรการที่รุนแรงกว่านั้นด้วย เช่น การใช้ระบบศาลเพื่อให้บริษัท AI รับผิดชอบเมื่อผลิตภัณฑ์ AI ของพวกเขาก่อให้เกิดผลร้ายแรง นอกจากนี้ เขายังเสนอให้ “ให้ตัวแทน AI รับผิดชอบเอง” ในกรณีที่เกิดอุบัติเหตุหรือละเมิด

ที่มา: https://doanhnghiepvn.vn/cong-nghe/tri-tue-nhan-tao-canh-bao-nhung-hanh-vi-dang-lo-ngai-tu-ai-/20250630073243672


การแสดงความคิดเห็น (0)

No data
No data

หัวข้อเดียวกัน

หมวดหมู่เดียวกัน

ท้องฟ้าของแม่น้ำฮันนั้น 'ราวกับภาพยนตร์' อย่างแท้จริง
นางงามเวียดนาม 2024 ชื่อ ฮา ทรัค ลินห์ สาวจากฟู้เยน
DIFF 2025 - กระตุ้นการท่องเที่ยวฤดูร้อนของดานังให้คึกคักยิ่งขึ้น
ติดตามดวงอาทิตย์

ผู้เขียนเดียวกัน

มรดก

รูป

ธุรกิจ

No videos available

ข่าว

ระบบการเมือง

ท้องถิ่น

ผลิตภัณฑ์