เรากำลังอยู่ในยุคแห่งการปฏิวัติเทคโนโลยี 4.0 ที่ปัญญาประดิษฐ์ (AI) กำลังค่อยๆ กลายเป็นส่วนสำคัญที่ขาดไม่ได้ในชีวิตสังคมหลายด้าน สื่อในฐานะสะพานเชื่อมข้อมูลระหว่างสาธารณชนและเหตุการณ์ต่างๆ ไม่อาจหลุดพ้นจากกระแสดังกล่าวได้
คุณเหงียน ถิ ไห่ วัน ผู้อำนวยการศูนย์ฝึกอบรมนักข่าว สมาคมนักข่าวเวียดนาม ในการประชุมเชิงปฏิบัติการเกี่ยวกับเทคโนโลยี AI (ที่มา: สมาคมนักข่าวเวียดนาม) |
เพื่อใช้ประโยชน์จากข้อดีของ AI ให้ได้มากที่สุด ผู้สื่อสารจำเป็นต้องเสริมความรู้ให้ตนเองเพื่อใช้ AI ได้อย่างมีประสิทธิภาพ พร้อมทั้งต้องรับประกันความน่าเชื่อถือและจริยธรรมในการส่งข้อมูล
จาก “ความร้อน” ของ AI
เป็นที่ชัดเจนว่า AI (ปัญญาประดิษฐ์) เป็นหนึ่งในคำค้นหาที่ได้รับความนิยมสูงสุดในปัจจุบัน ในเดือนกันยายน 2567 การค้นหาคำว่า "AI" บน Google ภายใน 0.3 วินาที มีผลลัพธ์มากถึง 15,900 ล้านผลลัพธ์ และหากใช้คำว่า "เครื่องมือ AI" ภายใน 0.4 วินาที มีผลลัพธ์มากกว่า 3,400 ล้านผลลัพธ์ ตัวเลขมหาศาลเหล่านี้แสดงให้เห็นถึงความครอบคลุมและความสนใจใน AI และเครื่องมือที่ใช้ AI ทั่วโลก
ปัจจุบันมีเครื่องมือ AI ปรากฏขึ้นมากมายในหลากหลายสาขา รวมถึงอุตสาหกรรมสื่อ นอกจาก ChatGPT ที่เป็นที่รู้จักอย่างกว้างขวางแล้ว ยังมีแอปพลิเคชัน AI อีกมากมายที่พัฒนาขึ้นในทิศทางเฉพาะทางเพื่อตอบโจทย์งานเฉพาะด้าน สามารถดูเครื่องมือต่างๆ ได้ที่นี่ เช่น Bing AI, Clause, Zapier Central สำหรับกลุ่มงาน Chatbot, Jasper, Copy.ai, Anyword สำหรับการสร้างคอนเทนต์, Descript, Wondershare, Runway สำหรับการผลิตและตัดต่อ วิดีโอ , DALL-E3, Midjourney, Stable Diffusion สำหรับการสร้างภาพ, Murf, AIVA สำหรับเนื้อหาเสียง และอื่นๆ และล่าสุด Amazon ยักษ์ใหญ่ก็ได้เปิดตัวเครื่องมือ AI ที่พัฒนาขึ้น ได้แก่ Video Generator และ Image generator โดยมีจุดมุ่งหมายเพื่อ "สร้างแรงบันดาลใจในการสร้างสรรค์และเพิ่มมูลค่า"
แม้ว่าเครื่องมือ AI จะมีความหลากหลายทั้งในด้านขนาดและระดับความเชี่ยวชาญ แต่เทคโนโลยีนี้โดยพื้นฐานแล้วมีสองสิ่งที่เหมือนกัน: เครื่องมือ AI ได้รับการพัฒนาขึ้นโดยอิงตามอัลกอริทึมและข้อมูลเพื่อ "ฝึก" เครื่องมือ AI
การควบคุมทางจริยธรรมของการใช้ AI ในสื่อ
ประโยชน์ที่เครื่องมือ AI นำมาให้นั้นไม่อาจปฏิเสธได้ และด้วยความก้าวหน้าทางเทคโนโลยีที่รวดเร็ว จะมีเครื่องมือ AI เฉพาะทางมากขึ้นเรื่อยๆ ในทุกมุมโลก ตอบสนองทุกงาน ตั้งแต่งานง่ายๆ ไปจนถึงงานที่ซับซ้อนในอุตสาหกรรมสื่อ ควบคู่ไปกับการพัฒนาที่ก้าวกระโดดนี้ คำถามมากมายเกี่ยวกับประเด็นการควบคุมทางจริยธรรมในการพัฒนาและการใช้งานเครื่องมือ AI ในอุตสาหกรรมสื่อก็เกิดขึ้นเช่นกัน จะเกิดอะไรขึ้นหากอัลกอริทึมและข้อมูลของเครื่องมือ AI ถูกบิดเบือนในลักษณะที่เป็นอันตรายต่อชุมชน ใครเป็นผู้รับประกันสิทธิ์ในทรัพย์สินทางปัญญาสำหรับข้อมูลอินพุตที่เครื่องมือ AI ใช้ในการฝึกอบรม ใครคือผู้ประเมินระดับความเสียหายที่เครื่องมือ AI ก่อขึ้น
มีความเหลื่อมล้ำระหว่างผู้ที่สามารถเข้าถึงและผู้ที่เข้าถึงเครื่องมือ AI สำหรับงานเดียวกันหรือไม่? แม้กระทั่งคำถามเกี่ยวกับความเสี่ยงที่จะเกิดอันตรายที่ไม่อาจควบคุมได้จากเครื่องมือ AI โดยเฉพาะในพื้นที่ละเอียดอ่อนที่อาจส่งผลกระทบต่อผู้คนจำนวนมากในวงกว้าง เช่น สื่อและเครือข่ายสังคมออนไลน์
ด้วยตระหนักถึงข้อกังวลข้างต้น องค์กร สมาคม รัฐบาล และแม้แต่บริษัทและนิติบุคคลหลายแห่งที่พัฒนาเครื่องมือ AI จึงได้ออกคำแนะนำ คำอธิบาย และแม้แต่จรรยาบรรณที่เกี่ยวข้องกับประเด็นการควบคุมทางจริยธรรมในเทคโนโลยี AI ปฏิญญาว่าด้วยจริยธรรมของปัญญาประดิษฐ์ (คำแนะนำของยูเนสโก) ซึ่งเป็นองค์การ การศึกษา วิทยาศาสตร์ และวัฒนธรรมแห่งสหประชาชาติ ซึ่งได้รับการรับรองโดย 193 ประเทศในปี พ.ศ. 2564 ระบุอย่างชัดเจนว่า "การเติบโตอย่างรวดเร็วของปัญญาประดิษฐ์ (AI) ได้สร้างโอกาสมากมายทั่วโลก ตั้งแต่การช่วยวินิจฉัยโรคทางการแพทย์ ไปจนถึงการสร้างการเชื่อมต่อระหว่างมนุษย์ผ่านโซเชียลมีเดีย และการสร้างประสิทธิภาพการทำงานผ่านงานอัตโนมัติ"
อย่างไรก็ตาม การเปลี่ยนแปลงอย่างรวดเร็วเหล่านี้ยังก่อให้เกิดความกังวลด้านจริยธรรมอย่างลึกซึ้ง ความเสี่ยงที่เกี่ยวข้องกับ AI เหล่านี้ได้เริ่มซ้ำเติมความเหลื่อมล้ำที่มีอยู่เดิม นำไปสู่ความเสียหายเพิ่มเติมต่อกลุ่มผู้ด้อยโอกาสอยู่แล้ว…” และจากจุดนั้น “ได้เรียกร้องให้ UNESCO พัฒนาเครื่องมือเพื่อสนับสนุนประเทศสมาชิก ซึ่งรวมถึงระเบียบวิธีประเมินความพร้อม ซึ่งเป็นเครื่องมือที่รัฐบาลต่างๆ จะใช้เพื่อสร้างภาพรวมที่ครอบคลุมเกี่ยวกับความพร้อมในการนำ AI ไปใช้อย่างมีจริยธรรมและมีความรับผิดชอบต่อพลเมืองทุกคน
ยูเนสโกได้เปิดตัวศูนย์สังเกตการณ์จริยธรรมและธรรมาภิบาล AI ระดับโลก (Global AI Ethics and Governance Observatory) ซึ่งระบุว่า “ให้ข้อมูลเกี่ยวกับความพร้อมของประเทศต่างๆ ในการนำ AI มาใช้อย่างมีจริยธรรมและมีความรับผิดชอบ นอกจากนี้ ยูเนสโกยังเป็นเจ้าภาพจัดห้องปฏิบัติการจริยธรรมและธรรมาภิบาล AI ซึ่งรวบรวมผลงาน งานวิจัยที่สร้างผลกระทบ ชุดเครื่องมือ และแนวปฏิบัติเชิงบวกในประเด็นจริยธรรมด้าน AI ที่หลากหลาย…”
นอกจากองค์กรระดับโลกอย่าง UNESCO แล้ว สมาคมวิชาชีพหลายแห่งยังกำลังพัฒนาจรรยาบรรณของตนเองด้วย ยกตัวอย่างเช่น IABC (สมาคมการสื่อสารธุรกิจระหว่างประเทศ) ซึ่งมีสมาชิกหลายพันคนจากทั่วโลก ได้พัฒนาชุดหลักการที่เป็นแนวทางสำหรับการใช้ AI อย่างมีจริยธรรมโดยผู้เชี่ยวชาญด้านการสื่อสาร ซึ่งมีวัตถุประสงค์เพื่อแนะนำสมาชิก IABC เกี่ยวกับความเกี่ยวข้องของจรรยาบรรณ IABC กับ AI แนวทางเหล่านี้อาจได้รับการปรับปรุงและเพิ่มเติมเมื่อเวลาผ่านไปตามการพัฒนาของเทคโนโลยี AI ในชุดหลักการนี้ มีประเด็นเฉพาะหลายประการที่ผู้เชี่ยวชาญด้านการสื่อสารควรปฏิบัติตาม เช่น
ทรัพยากร AI ที่ใช้ต้องขับเคลื่อนโดยมนุษย์เพื่อสร้างประสบการณ์เชิงบวกและโปร่งใส ซึ่งส่งเสริมความเคารพและความไว้วางใจในวิชาชีพสื่อ สิ่งสำคัญคือต้องคอยติดตามข้อมูลเกี่ยวกับโอกาสและความเสี่ยงทางวิชาชีพที่เครื่องมือ AI นำเสนออยู่เสมอ สิ่งสำคัญคือการสื่อสารข้อมูลอย่างถูกต้อง เป็นกลาง และเป็นธรรม เครื่องมือ AI อาจเกิดข้อผิดพลาด ความไม่สอดคล้อง และปัญหาทางเทคนิคอื่นๆ มากมาย ซึ่งต้องใช้วิจารณญาณของมนุษย์ในการตรวจสอบอย่างอิสระว่าเนื้อหาที่ฉันสร้างขึ้นโดย AI นั้นถูกต้อง โปร่งใส และลอกเลียนแบบหรือไม่
ปกป้องข้อมูลส่วนบุคคลและ/หรือข้อมูลลับของผู้อื่น และจะไม่นำข้อมูลนี้ไปใช้โดยไม่ได้รับอนุญาต ประเมินผลลัพธ์ของ AI โดยพิจารณาจากการมีส่วนร่วมของมนุษย์และความเข้าใจในชุมชนที่มุ่งหวังจะให้บริการ ขจัดอคติให้มากที่สุดเท่าที่จะทำได้ และคำนึงถึงค่านิยมและความเชื่อทางวัฒนธรรมของผู้อื่น
ต้องตรวจสอบข้อเท็จจริงและยืนยันผลลัพธ์ของตนเองอย่างอิสระด้วยความเข้มงวดทางวิชาชีพที่จำเป็น เพื่อให้มั่นใจว่าเอกสาร ข้อมูล หรือเอกสารอ้างอิงของบุคคลที่สามนั้นถูกต้อง มีการระบุแหล่งที่มาและการตรวจสอบยืนยันที่จำเป็น และได้รับอนุญาตหรือได้รับอนุญาตให้ใช้งานอย่างถูกต้อง ห้ามพยายามปกปิดหรืออำพรางการใช้ AI ในผลงานทางวิชาชีพของตน ยอมรับธรรมชาติของ AI แบบโอเพนซอร์สและประเด็นที่เกี่ยวข้องกับการรักษาความลับ รวมถึงการป้อนข้อมูลเท็จ ข้อมูลที่ทำให้เข้าใจผิด หรือข้อมูลหลอกลวง...
สำหรับบริษัทและองค์กรที่เป็นเจ้าของ พัฒนา และซื้อขายเครื่องมือ AI พวกเขาคือผู้ที่เข้าใจรายละเอียดของเครื่องมือ AI ได้ดีกว่าใคร พวกเขารู้เกี่ยวกับอัลกอริทึมพื้นฐานที่เครื่องมือ AI ทำงาน และข้อมูลที่เครื่องมือ AI ได้รับการฝึกอบรม ดังนั้น บริษัทเหล่านี้จึงจำเป็นต้องให้ข้อมูลเกี่ยวกับหลักจริยธรรมในการพัฒนา AI ด้วย อันที่จริง มีบริษัทหลายแห่งที่สนใจในประเด็นนี้
Google มุ่งมั่นที่จะไม่พัฒนาเครื่องมือ AI สำหรับพื้นที่ที่มีความเสี่ยงสูงที่จะเกิดอันตราย และเราจะดำเนินการดังกล่าวก็ต่อเมื่อเราเชื่อว่าประโยชน์ที่ได้รับมีมากกว่าความเสี่ยงอย่างมาก และได้นำมาตรการป้องกันที่เหมาะสมมาใช้ อาวุธหรือเทคโนโลยีอื่นๆ ที่มีวัตถุประสงค์หลักหรือการใช้งานเพื่อก่อให้เกิดหรืออำนวยความสะดวกโดยตรงต่อการบาดเจ็บของมนุษย์ เทคโนโลยีที่รวบรวมหรือใช้ข้อมูลเพื่อการเฝ้าระวังที่ละเมิดบรรทัดฐานที่ยอมรับในระดับสากล เทคโนโลยีที่มีวัตถุประสงค์ละเมิดหลักการที่ยอมรับโดยทั่วไปของกฎหมายระหว่างประเทศและสิทธิมนุษยชน
ในด้านความมั่นคงปลอดภัย Google ให้คำมั่นว่า “เราจะพัฒนาและดำเนินมาตรการรักษาความปลอดภัยและความปลอดภัยที่แข็งแกร่งอย่างต่อเนื่อง เพื่อหลีกเลี่ยงผลลัพธ์ที่ไม่พึงประสงค์ซึ่งก่อให้เกิดความเสี่ยงต่ออันตราย เราจะออกแบบระบบ AI ของเราให้มีความระมัดระวังอย่างเหมาะสม และพยายามพัฒนาให้สอดคล้องกับแนวปฏิบัติที่ดีที่สุดในการวิจัยความปลอดภัยของ AI เราจะนำหลักการความเป็นส่วนตัวของเราไปใช้ในการพัฒนาและการใช้เทคโนโลยี AI ของเรา เราจะเปิดโอกาสให้มีการแจ้งให้ทราบและยินยอม สนับสนุนสถาปัตยกรรมที่ปกป้องความเป็นส่วนตัว และให้ความโปร่งใสและการควบคุมที่เหมาะสมเกี่ยวกับการใช้ข้อมูล”
เช่นเดียวกับ Google ไมโครซอฟท์ก็ได้ออกแถลงการณ์เกี่ยวกับหลักการและแนวทางด้าน AI โดยเน้นย้ำว่า "เรามุ่งมั่นที่จะสร้างความมั่นใจว่าระบบ AI ได้รับการพัฒนาอย่างมีความรับผิดชอบและสร้างความไว้วางใจให้กับผู้คน..." นอกจากนี้ บริษัทเทคโนโลยีขนาดใหญ่หลายแห่งที่ลงทุนอย่างหนักในการพัฒนาเครื่องมือ AI เช่น Amazon และ OpenAI ก็ได้ให้คำมั่นสัญญาของตนเองเช่นกัน
ตัวอย่างมากมายในประวัติศาสตร์ได้พิสูจน์ให้เห็นถึงความคลุมเครือของเทคโนโลยี ทั้งในแง่บวกและแง่ลบ ถึงแม้ว่า AI จะเป็นแพลตฟอร์มเทคโนโลยีที่ “ไฮเทค” มาก แต่ก็ยังคงอาศัยอัลกอริทึมและข้อมูลที่มนุษย์พัฒนาและรวบรวม ในขณะเดียวกัน ผลิตภัณฑ์ AI ส่วนใหญ่ก็เป็นส่วนหนึ่งของแผนธุรกิจของบริษัทที่เป็นเจ้าของ
ดังนั้น จึงมีความเสี่ยงที่อาจเกิดขึ้นได้เสมอ ทั้งจากด้านเทคนิคและจากทีมพัฒนาและบริหารผลิตภัณฑ์ ปัญหาคือผลกระทบที่เครื่องมือ AI อาจมีต่อคนส่วนใหญ่ แม้แต่ในระดับเศรษฐกิจและสังคมของชุมชน การให้ความสำคัญกับการควบคุมจริยธรรมอย่างทันท่วงทีเมื่อใช้เทคโนโลยี AI ถือเป็นสัญญาณที่ดี เมื่อองค์กรระหว่างประเทศขนาดใหญ่ เช่น สหประชาชาติ หรือรัฐบาลต่างๆ เข้าร่วม สมาคมอุตสาหกรรม และที่สำคัญที่สุดคือ หน่วยงานพัฒนาเทคโนโลยีเข้ามามีส่วนร่วมโดยตรง
อย่างไรก็ตาม ในขณะที่รายการเครื่องมือ AI ปล่อยเวอร์ชันใหม่ๆ ออกมาอย่างต่อเนื่อง ซึ่งแต่ละเวอร์ชันมีความซับซ้อนและซับซ้อนกว่าเวอร์ชันก่อนหน้า โค้ด หลักการ หรือแนวปฏิบัติก็จำเป็นต้องได้รับการอัปเดตและเพิ่มเติมในเวลาที่เหมาะสม และยิ่งไปกว่านั้น ต้องมีการดำเนินการเชิงรุกเพื่อป้องกัน จำกัด และควบคุมหน่วยพัฒนาผลิตภัณฑ์และผู้ใช้ภายในกรอบการทำงานที่ความสามารถในการปฏิบัติตามการควบคุมทางจริยธรรมในเทคโนโลยี AI โดยทั่วไปและโดยเฉพาะอย่างยิ่งกับคนทำงานด้านสื่อสามารถบรรลุประสิทธิภาพสูงสุดได้
แหล่งที่มา
การแสดงความคิดเห็น (0)