Media Talk: เจาะมุมมองกสทช.เรื่องความท้าทายด้านนโยบายการใช้เอไอในสื่อ

ศ.กิตติคุณ ดร.พิรงรอง รามสูต กสทช. (ด้านกิจการโทรทัศน์) ได้ขึ้นเวทีสัมมนาในหัวข้อ The Policy Challenge of AI in Media and Ethics ความท้าทายทางนโยบายและการกำกับดูแลการใช้ AI ในสื่อมวลชน ที่งาน AI Horizons: The Future of Media โดย ThaiPBS ว่า ความท้าทายอันดับแรกคือ เจนเอไอ (Generative aI) และการบิดเบือนข้อมูล ซึ่งประเด็นนี้ยังคงเป็นเรื่องที่ต้องวิจัยและวิเคราะห์ต่อไป

สาเหตุที่การกำกับดูแลเอไอมีความสำคัญนั้น เนื่องจากเอไออาจจะก่อให้เกิดผลกระทบต่อสังคมได้จากการที่เอไอสร้างอคติและความไม่เท่าเทียมกัน ไม่ว่าจะเป็นทางด้านสาธารณสุขอาจจะทำให้การวินิจฉัยโรคผิดพลาดและการเข้าถึงการรักษาที่ไม่เท่าเทียมกัน สำหรับด้านการเงินนั้น ก็อาจจะเกิดกรณืการให้เครดิตที่ไม่เป็นธรรมหรือปฏิเสธการเข้าถึงเงินกู้

ในขณะที่การบังคับใช้กฎหมายก็อาจจะทำให้เกิดการจับกุมผู้บริสุทธิ์ได้ ส่วนงานทรัพยากรบุคคลก็อาจจะเกิดการเลือกปฏิบัติในการว่าจ้างและเลื่อนตำแหน่ง สำหรับงานด้านการตลาดและโฆษณาก็อาจจะเกิดการกำหนดเป้าหมายแบบที่ไม่เป็นธรรมและเกิดการกีดกันขึ้น สำหรับด้านการศึกษาก็อาจจะเกิดผลกระทบในเรื่องผลสัมฤทธิ์ด้านการศึกษาที่ไม่เท่ากัน และผลประเมินมีความลำเอียง

โดยแนวทางในการกำกับดูแลเอไอนั้น อาจจะสามารถทำได้ด้วยการกำกับดูแลโดยกฎหมาย การกำกับดูแลกันเอง และการสร้างการรู้เท่าทันเอไอ

สำหรับเจนเอไอสำหรับสื่อไทยนั้นสามารถตั้งต้นได้จากกลุ่มผู้มีส่วนเกี่ยวข้องหลายฝ่าย เช่น บริษัทผู้ผลิตสื่อ องค์กรวิชาชีพสื่อ สื่อท้องถิ่น ศิลปินพื้นบ้าน สื่ออิสระ อินฟลูเอนเซอร์ ภาครัฐ สถาบันการศึกษาฯ จากนั้นก็จะได้บิ๊กดาต้าสื่อไทยไม่ว่าจะเป็นสื่อสิ่งพิมพ์ ภาพถ่าย รายการวิทยุ โทรทัศน์ ละคร ซีรีส์ ภาพยนตร์ แอนิเมชั่น เว็บไซต์ และสื่อสังคมออนไลน์ เป็นต้น โดยมีการเพิ่มแมชีนเลิร์นนิ่งและกระบวนการเรียนรู้ด้านภาษาก็จะได้ Formulated model ออกมา เพื่อพัฒนาเจนเอไอสำหรับสื่อไทย

ดร.พิรงรองมองว่า การรู้เท่าทันเอไอนั้น จะต้องใช้ทักษะด้านเอไอสูง ซึ่งเราสามารถมองเอไอได้ว่าเป็นเครื่องมือที่มนุษย์สามารถควบคุมได้ หรือในอีกระดับ เอไอก็เป็นเทคโนโลยีที่ไม่ธรรมดา สามารถประมวลผลและคิดเองได้ พอเอาเข้าจริงแล้ว เราจะเชื่อใคร

ส่องแนวโน้มการกำกับดูแลเอไอของประเทศพัฒนาแล้วในซีกโลกเหนือและประเทศกำลังพัฒนาในซีกโลกใต้

ในซีกโลกเหนือนั้น การกำกับดูแล AI ได้มีการระบุความรับผิดชอบและแนวปฏิบัติสำหรับผู้มีบทบาทในอุตสาหกรรม หรือแนวปฏิบัติสำหรับวงจรชีวิตของเอไอ โดยเน้นในขั้นตอนของการพัฒนาเป็นสำคัญ และยังได้มีการระบุถึงปัญหาในทางเทคนิคและมีแนวปฏิบัติของบริษัทด้านเทคโนโลยี ซึ่งมักจะกำหนดหลักการเกี่ยวกับความรับผิดชอบในผลของการกระทำ ความเป็นส่วนตัว และความยุติธรรม และอาจรวมถึงหลักการไม่ทำอันตราย และความรับผิดชอบด้วย

ในขณะที่การกำกับดูแลในประเทศกำลังพัฒนาในซีกโลกใต้นั้น ควรมองภาพรวมทั้งวงจรของชีวิตเอไอ เริ่มตั้งแต่ก่อนการเก็บและกลั่นข้อมูลดิบ ชุดข้อมูลที่ใช้ และขยายการติดตามไปวิเคราะห์ถึงผลกระทบต่อสังคมในระยะยาว ไม่ใช่เพียงปัญหาที่เกี่ยวเนื่องกับการใช้งาน AI เท่านั้น

เจาะคู่มือการใช้งานเอไอเฟสแรกของไทยจากหลายมุมมอง

ในขณะที่สมาคมผู้สื่อข่าวไทยได้มีการหารือกันเกี่ยวกับคู่มือในการใช้เอไอของสื่อไทย โดยได้มีการนำเสนอคู่มือเบื้องต้นมาดังนี้

1. มีการควบคุมโดยมนุษย์

2. หลีกเลี่ยงการใช้รูปภาพที่สร้างขึ้นมาจากเอไอ

3. ใช้งานเอไอสำหรับการสาธิตหรือนำเสนอเท่านั้น

4. ในกรณีที่คอนเทนต์ทำขึ้นจากเอไอ จะต้องมีการระบุให้ทราบ

5. จะต้องมีบุคลากรรับผิดชอบในเรื่องการใช้งานเอไอ

6. ไม่ควรใช้ข้อมูลส่วนบุคคลในการฝึกอบรม

7. ไม่ควรนำเอไอมาใช้แทนมนุษย์

แนวทางการกำหนดนโยบาย AI สำหรับสื่อไทย

1. สร้างแนวทางการอภิบาลการใช้ AI พร้อมสร้างระบบความรับผิดชอบร่วมกันของหน่วยงานภาครัฐที่เกี่ยวข้อง

2. พัฒนากรอบด้านข้อมูลพื้นฐานที่รัดกุมและมีพลวัต เพื่อออกแบบนโยบายและประเมินผลกระทบ

3. พัฒนาวิสัยทัศน์ระยะยาวสำหรับการใช้ AI ในอุตสาหกรรมสื่อ และกำหนดแผนและกิจกรรมเพื่อนำไปสู่เป้าหมายร่วมกัน

4. สร้างพื้นที่ความร่วมมือที่ยั่งยืนและมีโครงสร้างชัดเจนระหว่างผู้มีส่วนได้ส่วนเสียทั้งในภาครัฐและเอกชน ตลอดจนการสร้างอำนาจต่อรองร่วมกับภาคีประเทศในเวทีสากล

โดย สำนักข่าวอินโฟเควสท์ (28 พ.ย. 67)

Tags: , , , , , , ,
Back to Top