ทั้งสองบริษัทจะร่วมมือกับสถาบันความปลอดภัย AI ของสหรัฐอเมริกา ซึ่งเป็นหน่วยงานของสถาบันมาตรฐานและเทคโนโลยีแห่งชาติ (NIST) ซึ่งเป็นหน่วยงานของรัฐบาลกลางสหรัฐอเมริกา การดำเนินการดังกล่าวถือเป็นก้าวสำคัญในการจัดการและกำกับดูแลเทคโนโลยี AI ซึ่งเป็นข้อกังวลสำคัญนับตั้งแต่เปิดตัว ChatGPT ของ OpenAI
“นี่เป็นเพียงจุดเริ่มต้นเท่านั้น แต่ถือเป็นก้าวสำคัญในการพยายามบริหารจัดการอนาคตของ AI อย่างมีความรับผิดชอบ” Elizabeth Kelly ผู้อำนวยการสถาบันความปลอดภัย AI ของสหรัฐอเมริกา กล่าว
ภายใต้ข้อตกลงนี้ สถาบันความปลอดภัย AI ของสหรัฐฯ จะให้ข้อเสนอแนะแก่ทั้งสองบริษัทเกี่ยวกับการปรับปรุงด้านความปลอดภัยที่อาจเกิดขึ้นกับโมเดลต่างๆ ทั้งก่อนและหลังจากที่โมเดลเหล่านั้นเผยแพร่สู่สาธารณะ นอกจากนี้ สถาบันยังจะทำงานอย่างใกล้ชิดกับสถาบันความปลอดภัย AI ของสหราชอาณาจักรในระหว่างกระบวนการนี้ด้วย
“ความร่วมมือกับสถาบันความปลอดภัย AI ของสหรัฐฯ ใช้ประโยชน์จากความเชี่ยวชาญอันกว้างขวางของสถาบันเพื่อทดสอบโมเดลของเราอย่างเข้มงวดก่อนนำไปใช้งานอย่างแพร่หลาย ซึ่งจะช่วยเพิ่มความสามารถของเราในการระบุและบรรเทาความเสี่ยง ส่งเสริมการพัฒนา AI อย่างมีความรับผิดชอบ” แจ็ก คลาร์ก ผู้ก่อตั้งร่วมและหัวหน้าฝ่ายนโยบายของ Anthropic กล่าว
การเคลื่อนไหวดังกล่าวเป็นส่วนหนึ่งของความพยายามในการดำเนินการตามคำสั่งบริหาร AI ของทำเนียบขาวซึ่งจะมีผลบังคับใช้ในปี 2023 ซึ่งมีเป้าหมายเพื่อสร้างกรอบทางกฎหมายสำหรับการใช้งานโมเดล AI อย่างรวดเร็วในสหรัฐอเมริกา
ในขณะที่ รัฐบาล กลางกำลังใช้แนวทางสมัครใจ สมาชิกรัฐสภาในแคลิฟอร์เนีย ซึ่งเป็นศูนย์กลางด้านเทคโนโลยีของอเมริกา ได้ผ่านร่างกฎหมายความปลอดภัยด้าน AI ในระดับรัฐเมื่อวันที่ 28 สิงหาคม ร่างกฎหมายดังกล่าว หากผู้ว่าการลงนาม จะกำหนดกฎระเบียบที่เข้มงวดยิ่งขึ้นสำหรับอุตสาหกรรม AI
แซม อัลท์แมน ซีอีโอของ OpenAI แสดงการสนับสนุนการกำกับดูแล AI ในระดับชาติมากกว่าระดับรัฐ โดยให้เหตุผลว่าการกระทำดังกล่าวจะช่วยหลีกเลี่ยงความเสี่ยงในการขัดขวางการวิจัยและนวัตกรรมในสาขา AI ได้
การเคลื่อนไหวของบริษัทเทคโนโลยีชั้นนำและรัฐบาลสหรัฐฯ แสดงให้เห็นถึงแนวโน้มในการสร้างสมดุลระหว่างนวัตกรรมและความปลอดภัยในสาขา AI ที่กำลังพัฒนาอย่างรวดเร็ว
ที่มา: https://nhandan.vn/openai-va-anthropic-chia-se-moi-nhat-ai-voi-chinh-phu-my-post827601.html
การแสดงความคิดเห็น (0)