Vietnam.vn - Nền tảng quảng bá Việt Nam

จริยธรรมของบุคลากรสื่อในการใช้เทคโนโลยี AI

Báo Quốc TếBáo Quốc Tế27/10/2024

เรากำลังอยู่ในยุคแห่งการปฏิวัติเทคโนโลยี 4.0 ที่ปัญญาประดิษฐ์ (AI) กำลังค่อยๆ กลายเป็นส่วนสำคัญที่ขาดไม่ได้ในชีวิตสังคมหลายด้าน สื่อในฐานะสะพานเชื่อมข้อมูลระหว่างสาธารณชนและเหตุการณ์ต่างๆ ไม่อาจหลุดพ้นจากกระแสดังกล่าวได้


Đạo đức của người làm truyền thông khi sử dụng công nghệ AI
คุณเหงียน ถิ ไห่ วัน ผู้อำนวยการศูนย์ฝึกอบรมนักข่าว สมาคมนักข่าวเวียดนาม ในการประชุมเชิงปฏิบัติการเกี่ยวกับเทคโนโลยี AI (ที่มา: สมาคมนักข่าวเวียดนาม)

เพื่อใช้ประโยชน์จากข้อดีของ AI ให้ได้มากที่สุด ผู้สื่อสารจำเป็นต้องเสริมความรู้ให้ตนเองเพื่อใช้ AI ได้อย่างมีประสิทธิภาพ พร้อมทั้งต้องรับประกันความน่าเชื่อถือและจริยธรรมในการส่งข้อมูล

จาก “ความร้อน” ของ AI

เป็นที่ชัดเจนว่า AI (ปัญญาประดิษฐ์) เป็นหนึ่งในคำค้นหาที่ได้รับความนิยมสูงสุดในปัจจุบัน ในเดือนกันยายน 2567 การค้นหาคำว่า "AI" บน Google ภายใน 0.3 วินาที มีผลลัพธ์มากถึง 15,900 ล้านผลลัพธ์ และหากใช้คำว่า "เครื่องมือ AI" ภายใน 0.4 วินาที มีผลลัพธ์มากกว่า 3,400 ล้านผลลัพธ์ ตัวเลขมหาศาลเหล่านี้แสดงให้เห็นถึงความครอบคลุมและความสนใจใน AI และเครื่องมือที่ใช้ AI ทั่วโลก

ปัจจุบันมีเครื่องมือ AI ปรากฏขึ้นมากมายในหลากหลายสาขา รวมถึงอุตสาหกรรมสื่อ นอกจาก ChatGPT ที่เป็นที่รู้จักอย่างกว้างขวางแล้ว ยังมีแอปพลิเคชัน AI อีกมากมายที่พัฒนาขึ้นในทิศทางเฉพาะทางเพื่อตอบโจทย์งานเฉพาะด้าน สามารถดูเครื่องมือต่างๆ ได้ที่นี่ เช่น Bing AI, Clause, Zapier Central สำหรับกลุ่มงาน Chatbot, Jasper, Copy.ai, Anyword สำหรับการสร้างคอนเทนต์, Descript, Wondershare, Runway สำหรับการผลิตและตัดต่อ วิดีโอ , DALL-E3, Midjourney, Stable Diffusion สำหรับการสร้างภาพ, Murf, AIVA สำหรับเนื้อหาเสียง และอื่นๆ และล่าสุด Amazon ยักษ์ใหญ่ก็ได้เปิดตัวเครื่องมือ AI ที่พัฒนาขึ้น ได้แก่ Video Generator และ Image generator โดยมีจุดมุ่งหมายเพื่อ "สร้างแรงบันดาลใจในการสร้างสรรค์และเพิ่มมูลค่า"

แม้ว่าเครื่องมือ AI จะมีความหลากหลายทั้งในด้านขนาดและระดับความเชี่ยวชาญ แต่เทคโนโลยีนี้โดยพื้นฐานแล้วมีสองสิ่งที่เหมือนกัน: เครื่องมือ AI ได้รับการพัฒนาขึ้นโดยอิงตามอัลกอริทึมและข้อมูลเพื่อ "ฝึก" เครื่องมือ AI

การควบคุมทางจริยธรรมของการใช้ AI ในสื่อ

ประโยชน์ที่เครื่องมือ AI นำมาให้นั้นไม่อาจปฏิเสธได้ และด้วยความก้าวหน้าทางเทคโนโลยีที่รวดเร็ว จะมีเครื่องมือ AI เฉพาะทางมากขึ้นเรื่อยๆ ในทุกมุมโลก ตอบสนองทุกงาน ตั้งแต่งานง่ายๆ ไปจนถึงงานที่ซับซ้อนในอุตสาหกรรมสื่อ ควบคู่ไปกับการพัฒนาที่ก้าวกระโดดนี้ คำถามมากมายเกี่ยวกับประเด็นการควบคุมทางจริยธรรมในการพัฒนาและการใช้งานเครื่องมือ AI ในอุตสาหกรรมสื่อก็เกิดขึ้นเช่นกัน จะเกิดอะไรขึ้นหากอัลกอริทึมและข้อมูลของเครื่องมือ AI ถูกบิดเบือนในลักษณะที่เป็นอันตรายต่อชุมชน ใครเป็นผู้รับประกันสิทธิ์ในทรัพย์สินทางปัญญาสำหรับข้อมูลอินพุตที่เครื่องมือ AI ใช้ในการฝึกอบรม ใครคือผู้ประเมินระดับความเสียหายที่เครื่องมือ AI ก่อขึ้น

มีความเหลื่อมล้ำระหว่างผู้ที่สามารถเข้าถึงและผู้ที่เข้าถึงเครื่องมือ AI สำหรับงานเดียวกันหรือไม่? แม้กระทั่งคำถามเกี่ยวกับความเสี่ยงที่จะเกิดอันตรายที่ไม่อาจควบคุมได้จากเครื่องมือ AI โดยเฉพาะในพื้นที่ละเอียดอ่อนที่อาจส่งผลกระทบต่อผู้คนจำนวนมากในวงกว้าง เช่น สื่อและเครือข่ายสังคมออนไลน์

ด้วยตระหนักถึงข้อกังวลข้างต้น องค์กร สมาคม รัฐบาล และแม้แต่บริษัทและนิติบุคคลหลายแห่งที่พัฒนาเครื่องมือ AI จึงได้ออกคำแนะนำ คำอธิบาย และแม้แต่จรรยาบรรณที่เกี่ยวข้องกับประเด็นการควบคุมทางจริยธรรมในเทคโนโลยี AI ปฏิญญาว่าด้วยจริยธรรมของปัญญาประดิษฐ์ (คำแนะนำของยูเนสโก) ซึ่งเป็นองค์การ การศึกษา วิทยาศาสตร์ และวัฒนธรรมแห่งสหประชาชาติ ซึ่งได้รับการรับรองโดย 193 ประเทศในปี พ.ศ. 2564 ระบุอย่างชัดเจนว่า "การเติบโตอย่างรวดเร็วของปัญญาประดิษฐ์ (AI) ได้สร้างโอกาสมากมายทั่วโลก ตั้งแต่การช่วยวินิจฉัยโรคทางการแพทย์ ไปจนถึงการสร้างการเชื่อมต่อระหว่างมนุษย์ผ่านโซเชียลมีเดีย และการสร้างประสิทธิภาพการทำงานผ่านงานอัตโนมัติ"

อย่างไรก็ตาม การเปลี่ยนแปลงอย่างรวดเร็วเหล่านี้ยังก่อให้เกิดความกังวลด้านจริยธรรมอย่างลึกซึ้ง ความเสี่ยงที่เกี่ยวข้องกับ AI เหล่านี้ได้เริ่มซ้ำเติมความเหลื่อมล้ำที่มีอยู่เดิม นำไปสู่ความเสียหายเพิ่มเติมต่อกลุ่มผู้ด้อยโอกาสอยู่แล้ว…” และจากจุดนั้น “ได้เรียกร้องให้ UNESCO พัฒนาเครื่องมือเพื่อสนับสนุนประเทศสมาชิก ซึ่งรวมถึงระเบียบวิธีประเมินความพร้อม ซึ่งเป็นเครื่องมือที่รัฐบาลต่างๆ จะใช้เพื่อสร้างภาพรวมที่ครอบคลุมเกี่ยวกับความพร้อมในการนำ AI ไปใช้อย่างมีจริยธรรมและมีความรับผิดชอบต่อพลเมืองทุกคน

ยูเนสโกได้เปิดตัวศูนย์สังเกตการณ์จริยธรรมและธรรมาภิบาล AI ระดับโลก (Global AI Ethics and Governance Observatory) ซึ่งระบุว่า “ให้ข้อมูลเกี่ยวกับความพร้อมของประเทศต่างๆ ในการนำ AI มาใช้อย่างมีจริยธรรมและมีความรับผิดชอบ นอกจากนี้ ยูเนสโกยังเป็นเจ้าภาพจัดห้องปฏิบัติการจริยธรรมและธรรมาภิบาล AI ซึ่งรวบรวมผลงาน งานวิจัยที่สร้างผลกระทบ ชุดเครื่องมือ และแนวปฏิบัติเชิงบวกในประเด็นจริยธรรมด้าน AI ที่หลากหลาย…”

นอกจากองค์กรระดับโลกอย่าง UNESCO แล้ว สมาคมวิชาชีพหลายแห่งยังกำลังพัฒนาจรรยาบรรณของตนเองด้วย ยกตัวอย่างเช่น IABC (สมาคมการสื่อสารธุรกิจระหว่างประเทศ) ซึ่งมีสมาชิกหลายพันคนจากทั่วโลก ได้พัฒนาชุดหลักการที่เป็นแนวทางสำหรับการใช้ AI อย่างมีจริยธรรมโดยผู้เชี่ยวชาญด้านการสื่อสาร ซึ่งมีวัตถุประสงค์เพื่อแนะนำสมาชิก IABC เกี่ยวกับความเกี่ยวข้องของจรรยาบรรณ IABC กับ AI แนวทางเหล่านี้อาจได้รับการปรับปรุงและเพิ่มเติมเมื่อเวลาผ่านไปตามการพัฒนาของเทคโนโลยี AI ในชุดหลักการนี้ มีประเด็นเฉพาะหลายประการที่ผู้เชี่ยวชาญด้านการสื่อสารควรปฏิบัติตาม เช่น

ทรัพยากร AI ที่ใช้ต้องขับเคลื่อนโดยมนุษย์เพื่อสร้างประสบการณ์เชิงบวกและโปร่งใส ซึ่งส่งเสริมความเคารพและความไว้วางใจในวิชาชีพสื่อ สิ่งสำคัญคือต้องคอยติดตามข้อมูลเกี่ยวกับโอกาสและความเสี่ยงทางวิชาชีพที่เครื่องมือ AI นำเสนออยู่เสมอ สิ่งสำคัญคือการสื่อสารข้อมูลอย่างถูกต้อง เป็นกลาง และเป็นธรรม เครื่องมือ AI อาจเกิดข้อผิดพลาด ความไม่สอดคล้อง และปัญหาทางเทคนิคอื่นๆ มากมาย ซึ่งต้องใช้วิจารณญาณของมนุษย์ในการตรวจสอบอย่างอิสระว่าเนื้อหาที่ฉันสร้างขึ้นโดย AI นั้นถูกต้อง โปร่งใส และลอกเลียนแบบหรือไม่

ปกป้องข้อมูลส่วนบุคคลและ/หรือข้อมูลลับของผู้อื่น และจะไม่นำข้อมูลนี้ไปใช้โดยไม่ได้รับอนุญาต ประเมินผลลัพธ์ของ AI โดยพิจารณาจากการมีส่วนร่วมของมนุษย์และความเข้าใจในชุมชนที่มุ่งหวังจะให้บริการ ขจัดอคติให้มากที่สุดเท่าที่จะทำได้ และคำนึงถึงค่านิยมและความเชื่อทางวัฒนธรรมของผู้อื่น

ต้องตรวจสอบข้อเท็จจริงและยืนยันผลลัพธ์ของตนเองอย่างอิสระด้วยความเข้มงวดทางวิชาชีพที่จำเป็น เพื่อให้มั่นใจว่าเอกสาร ข้อมูล หรือเอกสารอ้างอิงของบุคคลที่สามนั้นถูกต้อง มีการระบุแหล่งที่มาและการตรวจสอบยืนยันที่จำเป็น และได้รับอนุญาตหรือได้รับอนุญาตให้ใช้งานอย่างถูกต้อง ห้ามพยายามปกปิดหรืออำพรางการใช้ AI ในผลงานทางวิชาชีพของตน ยอมรับธรรมชาติของ AI แบบโอเพนซอร์สและประเด็นที่เกี่ยวข้องกับการรักษาความลับ รวมถึงการป้อนข้อมูลเท็จ ข้อมูลที่ทำให้เข้าใจผิด หรือข้อมูลหลอกลวง...

สำหรับบริษัทและองค์กรที่เป็นเจ้าของ พัฒนา และซื้อขายเครื่องมือ AI พวกเขาคือผู้ที่เข้าใจรายละเอียดของเครื่องมือ AI ได้ดีกว่าใคร พวกเขารู้เกี่ยวกับอัลกอริทึมพื้นฐานที่เครื่องมือ AI ทำงาน และข้อมูลที่เครื่องมือ AI ได้รับการฝึกอบรม ดังนั้น บริษัทเหล่านี้จึงจำเป็นต้องให้ข้อมูลเกี่ยวกับหลักจริยธรรมในการพัฒนา AI ด้วย อันที่จริง มีบริษัทหลายแห่งที่สนใจในประเด็นนี้

Google มุ่งมั่นที่จะไม่พัฒนาเครื่องมือ AI สำหรับพื้นที่ที่มีความเสี่ยงสูงที่จะเกิดอันตราย และเราจะดำเนินการดังกล่าวก็ต่อเมื่อเราเชื่อว่าประโยชน์ที่ได้รับมีมากกว่าความเสี่ยงอย่างมาก และได้นำมาตรการป้องกันที่เหมาะสมมาใช้ อาวุธหรือเทคโนโลยีอื่นๆ ที่มีวัตถุประสงค์หลักหรือการใช้งานเพื่อก่อให้เกิดหรืออำนวยความสะดวกโดยตรงต่อการบาดเจ็บของมนุษย์ เทคโนโลยีที่รวบรวมหรือใช้ข้อมูลเพื่อการเฝ้าระวังที่ละเมิดบรรทัดฐานที่ยอมรับในระดับสากล เทคโนโลยีที่มีวัตถุประสงค์ละเมิดหลักการที่ยอมรับโดยทั่วไปของกฎหมายระหว่างประเทศและสิทธิมนุษยชน

ในด้านความมั่นคงปลอดภัย Google ให้คำมั่นว่า “เราจะพัฒนาและดำเนินมาตรการรักษาความปลอดภัยและความปลอดภัยที่แข็งแกร่งอย่างต่อเนื่อง เพื่อหลีกเลี่ยงผลลัพธ์ที่ไม่พึงประสงค์ซึ่งก่อให้เกิดความเสี่ยงต่ออันตราย เราจะออกแบบระบบ AI ของเราให้มีความระมัดระวังอย่างเหมาะสม และพยายามพัฒนาให้สอดคล้องกับแนวปฏิบัติที่ดีที่สุดในการวิจัยความปลอดภัยของ AI เราจะนำหลักการความเป็นส่วนตัวของเราไปใช้ในการพัฒนาและการใช้เทคโนโลยี AI ของเรา เราจะเปิดโอกาสให้มีการแจ้งให้ทราบและยินยอม สนับสนุนสถาปัตยกรรมที่ปกป้องความเป็นส่วนตัว และให้ความโปร่งใสและการควบคุมที่เหมาะสมเกี่ยวกับการใช้ข้อมูล”

เช่นเดียวกับ Google ไมโครซอฟท์ก็ได้ออกแถลงการณ์เกี่ยวกับหลักการและแนวทางด้าน AI โดยเน้นย้ำว่า "เรามุ่งมั่นที่จะสร้างความมั่นใจว่าระบบ AI ได้รับการพัฒนาอย่างมีความรับผิดชอบและสร้างความไว้วางใจให้กับผู้คน..." นอกจากนี้ บริษัทเทคโนโลยีขนาดใหญ่หลายแห่งที่ลงทุนอย่างหนักในการพัฒนาเครื่องมือ AI เช่น Amazon และ OpenAI ก็ได้ให้คำมั่นสัญญาของตนเองเช่นกัน

ตัวอย่างมากมายในประวัติศาสตร์ได้พิสูจน์ให้เห็นถึงความคลุมเครือของเทคโนโลยี ทั้งในแง่บวกและแง่ลบ ถึงแม้ว่า AI จะเป็นแพลตฟอร์มเทคโนโลยีที่ “ไฮเทค” มาก แต่ก็ยังคงอาศัยอัลกอริทึมและข้อมูลที่มนุษย์พัฒนาและรวบรวม ในขณะเดียวกัน ผลิตภัณฑ์ AI ส่วนใหญ่ก็เป็นส่วนหนึ่งของแผนธุรกิจของบริษัทที่เป็นเจ้าของ

ดังนั้น จึงมีความเสี่ยงที่อาจเกิดขึ้นได้เสมอ ทั้งจากด้านเทคนิคและจากทีมพัฒนาและบริหารผลิตภัณฑ์ ปัญหาคือผลกระทบที่เครื่องมือ AI อาจมีต่อคนส่วนใหญ่ แม้แต่ในระดับเศรษฐกิจและสังคมของชุมชน การให้ความสำคัญกับการควบคุมจริยธรรมอย่างทันท่วงทีเมื่อใช้เทคโนโลยี AI ถือเป็นสัญญาณที่ดี เมื่อองค์กรระหว่างประเทศขนาดใหญ่ เช่น สหประชาชาติ หรือรัฐบาลต่างๆ เข้าร่วม สมาคมอุตสาหกรรม และที่สำคัญที่สุดคือ หน่วยงานพัฒนาเทคโนโลยีเข้ามามีส่วนร่วมโดยตรง

อย่างไรก็ตาม ในขณะที่รายการเครื่องมือ AI ปล่อยเวอร์ชันใหม่ๆ ออกมาอย่างต่อเนื่อง ซึ่งแต่ละเวอร์ชันมีความซับซ้อนและซับซ้อนกว่าเวอร์ชันก่อนหน้า โค้ด หลักการ หรือแนวปฏิบัติก็จำเป็นต้องได้รับการอัปเดตและเพิ่มเติมในเวลาที่เหมาะสม และยิ่งไปกว่านั้น ต้องมีการดำเนินการเชิงรุกเพื่อป้องกัน จำกัด และควบคุมหน่วยพัฒนาผลิตภัณฑ์และผู้ใช้ภายในกรอบการทำงานที่ความสามารถในการปฏิบัติตามการควบคุมทางจริยธรรมในเทคโนโลยี AI โดยทั่วไปและโดยเฉพาะอย่างยิ่งกับคนทำงานด้านสื่อสามารถบรรลุประสิทธิภาพสูงสุดได้



แหล่งที่มา

การแสดงความคิดเห็น (0)

No data
No data
ฉากมหัศจรรย์บนเนินชา 'ชามคว่ำ' ในฟู้โถ
3 เกาะในภาคกลางเปรียบเสมือนมัลดีฟส์ ดึงดูดนักท่องเที่ยวในช่วงฤดูร้อน
ชมเมืองชายฝั่ง Quy Nhon ของ Gia Lai ที่เป็นประกายระยิบระยับในยามค่ำคืน
ภาพทุ่งนาขั้นบันไดในภูทอ ลาดเอียงเล็กน้อย สดใส สวยงาม เหมือนกระจกก่อนฤดูเพาะปลูก
โรงงาน Z121 พร้อมแล้วสำหรับงาน International Fireworks Final Night
นิตยสารท่องเที่ยวชื่อดังยกย่องถ้ำซอนดุงว่าเป็น “ถ้ำที่งดงามที่สุดในโลก”
ถ้ำลึกลับดึงดูดนักท่องเที่ยวชาวตะวันตก เปรียบเสมือน 'ถ้ำฟองญา' ในทัญฮว้า
ค้นพบความงดงามอันน่ารื่นรมย์ของอ่าว Vinh Hy
ชาที่มีราคาแพงที่สุดในฮานอย ซึ่งมีราคาสูงกว่า 10 ล้านดองต่อกิโลกรัม ได้รับการแปรรูปอย่างไร?
รสชาติแห่งภูมิภาคสายน้ำ

มรดก

รูป

ธุรกิจ

No videos available

ข่าว

ระบบการเมือง

ท้องถิ่น

ผลิตภัณฑ์