กลุ่มพนักงาน OpenAI และ Google DeepMind ออกจดหมายเตือนความเสี่ยงของ AI

กลุ่มพนักงานปัจจุบันและอดีตพนักงานของกูเกิล ดีปมายด์ (Google DeepMind) ในเครือบริษัทอัลฟาเบท (Alphabet) และบริษัทโอเพนเอไอ (OpenAI) ที่ได้รับการสนับสนุนจากไมโครซอฟท์ (Microsoft) ได้ร่วมกันแสดงความกังวลเกี่ยวกับความเสี่ยงจากเทคโนโลยีปัญญาประดิษฐ์ (AI) ที่กำลังเติบโตอย่างรวดเร็ว

สำนักข่าวรอยเตอร์รายงานเมื่อวานนี้ (4 มิ.ย.) ว่า จดหมายเปิดผนึกจากกลุ่มพนักงานปัจจุบันและอดีตพนักงานของโอเพนเอไอ 11 ราย และจากกูเกิล ดีปมายด์ 2 ราย ระบุว่า แรงจูงใจด้านผลกำไรของบริษัท AI เป็นอุปสรรคสำคัญต่อการกำกับดูแลอย่างมีประสิทธิภาพ

“เราไม่เชื่อว่าโครงสร้างการกำกับดูแลกิจการของบริษัทจะเพียงพอต่อการเปลี่ยนแปลงสถานการณ์นี้ได้” จดหมายระบุ

เนื้อหาในจดหมายได้ชี้ให้เห็นถึงความเสี่ยงที่อาจเกิดขึ้นจาก AI ที่ขาดการควบคุม ไม่ว่าจะเป็นการเผยแพร่ข้อมูลเท็จ การสูญเสียระบบ AI ที่เป็นอิสระ ไปจนถึงการซ้ำเติมความเหลื่อมล้ำที่มีอยู่เดิม ซึ่งอาจนำไปสู่ “การสูญพันธุ์ของมวลมนุษยชาติ” ในท้ายที่สุด

นอกจากนี้ นักวิจัยยังค้นพบว่า เครื่องมือสร้างรูปภาพของบริษัท AI หลายแห่ง รวมถึงโอเพนเอไอและไมโครซอฟท์ สามารถสร้างภาพถ่ายที่มีเนื้อหาบิดเบือนเกี่ยวกับการเลือกตั้งได้ แม้บริษัทเหล่านี้จะมีนโยบายสั่งห้ามเนื้อหาประเภทดังกล่าวก็ตาม

จดหมายเปิดผนึกยังระบุอีกว่า บริษัท AI มี “ภาระผูกพันที่ไม่หนักแน่น” ในการแชร์ข้อมูลเกี่ยวกับความสามารถและข้อจำกัดของระบบ AI ของตนกับรัฐบาล และไม่อาจไว้วางใจได้ว่าบริษัทเหล่านี้จะแชร์ข้อมูลดังกล่าวโดยสมัครใจ

อนึ่ง จดหมายฉบับนี้เป็นเพียงเสียงสะท้อนล่าสุดที่แสดงความกังวลเกี่ยวกับความปลอดภัยของเทคโนโลยีเจเนอเรทีฟเอไอ (Generative AI) ซึ่งสามารถสร้างข้อความ ภาพ และเสียงที่มีลักษณะคล้ายมนุษย์ได้อย่างรวดเร็วในราคาถูก

กลุ่มพนักงานดังกล่าวได้เรียกร้องให้บริษัท AI ต่าง ๆ อำนวยความสะดวกแก่พนักงานปัจจุบันและอดีตพนักงานในการแสดงข้อกังวลเกี่ยวกับความเสี่ยงของ AI และไม่บังคับใช้ข้อตกลงการรักษาความลับที่ปิดกั้นการวิพากษ์วิจารณ์

ก่อนหน้านี้ โอเพนเอไอได้ออกมาเปิดเผยเมื่อวันพฤหัสบดี (30 พ.ค.) ว่า บริษัทได้ระงับการดำเนินการของเครือข่ายปฏิบัติการสร้างอิทธิพล (Influence Operations) แอบแฝงจำนวน 5 เครือข่ายในช่วง 3 เดือนที่ผ่านมา รวมถึงเครือข่ายในรัสเซีย, จีน, อิหร่าน และอิสราเอลที่เข้าถึงผลิตภัณฑ์ด้าน AI ของบริษัท เพื่อพยายามบิดเบือนความคิดเห็นของประชาชนหรือกำหนดทิศทางผลลัพธ์ทางการเมือง ในขณะที่ปกปิดตัวตนที่แท้จริง

โดย สำนักข่าวอินโฟเควสท์ (05 มิ.ย. 67)

Tags: , , , , , , , ,
Back to Top