การพัฒนาอย่างรวดเร็วของปัญญาประดิษฐ์ (AI) ทำให้เกิดความกังวลว่าปัญญาประดิษฐ์จะพัฒนาเร็วกว่าที่มนุษย์จะเข้าใจผลกระทบของมันได้
ภาพ : ST
การใช้ AI ทั่วไปเพิ่มขึ้นอย่างมากหลังจากที่มีเครื่องมืออย่าง ChatGPT เกิดขึ้น แม้ว่าเครื่องมือเหล่านี้จะมีประโยชน์มากมาย แต่ก็อาจถูกนำไปใช้ในทางที่ผิดได้
เพื่อจัดการความเสี่ยงนี้ สหรัฐอเมริกาและประเทศอื่นๆ อีกหลายประเทศได้ทำข้อตกลงกับบริษัทเจ็ดแห่ง ได้แก่ Amazon, Anthropic, Google, Inflection, Meta, Microsoft และ OpenAI เพื่อมุ่งมั่นในการปฏิบัติที่ปลอดภัยในการพัฒนาเทคโนโลยี AI
ประกาศของทำเนียบขาวมีศัพท์เฉพาะของตัวเองที่คนทั่วไปอาจไม่คุ้นเคย เช่น “ทีมแดง” และ “ลายน้ำ” ต่อไปนี้เป็นคำศัพท์ที่เกี่ยวข้องกับ AI จำนวน 7 คำที่ควรระวัง
การเรียนรู้ของเครื่องจักร
สาขาหนึ่งของ AI นี้มีจุดมุ่งหมายเพื่อฝึกให้เครื่องจักรทำงานเฉพาะอย่างแม่นยำโดยการระบุรูปแบบ จากนั้นเครื่องจักรจะทำนายผลตามข้อมูลนั้นได้
การเรียนรู้เชิงลึก
งาน AI ที่สร้างสรรค์มักอาศัยการเรียนรู้เชิงลึก ซึ่งเป็นวิธีการที่เกี่ยวข้องกับการฝึกคอมพิวเตอร์โดยใช้เครือข่ายประสาท ชุดอัลกอริทึมที่ออกแบบมาเพื่อเลียนแบบเซลล์ประสาทในสมองมนุษย์ เพื่อสร้างความเชื่อมโยงที่ซับซ้อนระหว่างรูปแบบต่างๆ เพื่อสร้างข้อความ รูปภาพ หรือเนื้อหาอื่นๆ
เนื่องจากโมเดลการเรียนรู้เชิงลึกมีเซลล์ประสาทหลายชั้น จึงสามารถเรียนรู้รูปแบบที่ซับซ้อนได้มากกว่าการเรียนรู้ของเครื่องจักรแบบดั้งเดิม
แบบจำลองภาษาขนาดใหญ่
โมเดลภาษาขนาดใหญ่หรือ LLM จะถูกฝึกด้วยข้อมูลจำนวนมหาศาล และมีจุดประสงค์เพื่อสร้างแบบจำลองภาษาหรือทำนายคำถัดไปในลำดับ โมเดลภาษาขนาดใหญ่ เช่น ChatGPT และ Google Bard สามารถใช้สำหรับงานต่างๆ รวมถึงการสรุป การแปล และการสนทนา
อัลกอริทึม
ชุดคำสั่งหรือกฎเกณฑ์ที่ช่วยให้เครื่องจักรสามารถทำนาย แก้ปัญหา หรือทำงานให้เสร็จสิ้นได้ อัลกอริทึมสามารถให้คำแนะนำในการซื้อสินค้าและช่วยในการตรวจจับการฉ้อโกงและฟังก์ชันแชทบริการลูกค้า
อคติ
เนื่องจาก AI ได้รับการฝึกจากชุดข้อมูลขนาดใหญ่ จึงสามารถรวมข้อมูลที่เป็นอันตราย เช่น คำพูดแสดงความเกลียดชัง ลงในข้อมูลได้ นอกจากนี้ ข้อมูลที่ใช้ในการฝึก AI ยังอาจแสดงถึงการเหยียดเชื้อชาติและเพศได้ ซึ่งนำไปสู่เนื้อหาที่เข้าใจผิดได้
บริษัท AI ตกลงที่จะเจาะลึกมากขึ้นถึงวิธีหลีกเลี่ยงอคติและการเลือกปฏิบัติที่เป็นอันตรายในระบบ AI
การรวมทีมสีแดง
หนึ่งในพันธกรณีที่บริษัทต่างๆ ได้ให้ไว้กับทำเนียบขาวคือการดำเนินการ "ทีมแดง" ทั้งภายในและภายนอกโมเดลและระบบ AI
“การทำงานเป็นทีมแบบ Red Team” เกี่ยวข้องกับการทดสอบโมเดลเพื่อค้นหาช่องโหว่ที่อาจเกิดขึ้น คำนี้มาจากการฝึก ทหาร ที่ทีมจะจำลองการกระทำของผู้โจมตีเพื่อคิดกลยุทธ์ขึ้นมา
วิธีนี้ใช้กันอย่างแพร่หลายในการทดสอบช่องโหว่ด้านความปลอดภัยในระบบ เช่น แพลตฟอร์มคลาวด์คอมพิวติ้งจากบริษัทต่างๆ เช่น Microsoft และ Google
ลายน้ำ
ลายน้ำเป็นวิธีหนึ่งในการบอกว่าเสียงหรือวิดีโอนั้นถูกสร้างขึ้นโดย AI หรือไม่ ข้อมูลที่ตรวจสอบเพื่อยืนยันอาจรวมถึงข้อมูลเกี่ยวกับผู้ที่สร้าง รวมถึงวิธีและเวลาที่สร้างหรือแก้ไข
ตัวอย่างเช่น Microsoft ได้ให้คำมั่นว่าจะใส่ลายน้ำบนภาพที่สร้างขึ้นด้วยเครื่องมือ AI บริษัทต่างๆ ยังได้ให้คำมั่นกับทำเนียบขาวว่าจะใส่ลายน้ำบนภาพหรือบันทึกแหล่งที่มาของภาพ เพื่อระบุว่าภาพเหล่านั้นสร้างขึ้นโดย AI
ลายน้ำมักใช้เพื่อติดตามการละเมิดทรัพย์สินทางปัญญา ลายน้ำสำหรับรูปภาพที่สร้างโดย AI อาจปรากฏเป็นสัญญาณรบกวนที่รับรู้ไม่ได้ เช่น การเปลี่ยนแปลงเล็กน้อยทุกๆ 7 พิกเซล
อย่างไรก็ตาม การใส่ลายน้ำลงในข้อความที่สร้างโดย AI อาจซับซ้อนมากกว่า และอาจต้องมีการปรับแต่งเทมเพลตคำ เพื่อให้สามารถระบุได้ว่าเป็นเนื้อหาที่สร้างโดย AI
ฮวง ตัน (ตามรายงานของพอยน์เตอร์)
แหล่งที่มา
การแสดงความคิดเห็น (0)