“อัลฟาเบท” ยักษ์ใหญ่ AI เตือนเอง สั่งพนักงานระมัดระวังการใช้แชตบอต

อัลฟาเบท อิงค์ ซึ่งเป็นบริษัทแม่ของกูเกิล ได้ออกคำเตือนให้พนักงานของบริษัทระมัดระวังการใช้งานแชตบอต ซึ่งรวมถึง บาร์ด (Bard) ซึ่งเป็นแชตบอต AI ที่อัลฟาเบทสร้างขึ้น โดยคำเตือนดังกล่าวมีขึ้นในเวลาเดียวกันกับที่บริษัทกำลังทำการตลาดเพื่อโปรโมท Bard ให้แพร่หลายทั่วโลก

สำนักข่าวรอยเตอร์รายงานโดยอ้างแหล่งข่าวว่า อัลฟาเบทได้แนะนำพนักงานไม่ให้ป้อนข้อมูลที่เป็นความลับของบริษัทเข้าสู่แชตบอต AI เพื่อให้เป็นไปตามนโยบายการปกป้องข้อมูลที่บริษัทดำเนินการมาเป็นเวลานาน

แชตบอต AI ซึ่งรวมถึงแชตบอต Bard ของอัลฟาเบท และ ChatGPT ของโอเพนเอไอ เป็นปัญญาประดิษฐ์แบบรู้สร้าง (Generative AI) ที่มนุษย์พัฒนาขึ้น ซึ่งสามารถสนทนากับผู้ใช้งานและสามารถตอบคำถามต่าง ๆ ตามที่บริษัทผู้พัฒนาฝึกฝนด้วยการป้อนข้อมูลให้ อย่างไรก็ดี บรรดานักวิเคราะห์พบว่า AI ประเภทนี้อาจเปิดเผยข้อมูลที่เรียนรู้ระหว่างการฝึกฝนโดยไม่ได้ตั้งใจ ซึ่งถือเป็นความเสี่ยงที่อาจจะเกิดการรั่วไหลของข้อมูล

นอกจากนี้ อัลฟาเบทยังเตือนให้วิศวกรของบริษัทหลีกเลี่ยงการใช้รหัสคอมพิวเตอร์ (computer code) ที่แชตบอตสร้างขึ้นโดยตรง ซึ่งคำเตือนดังกล่าวสะท้อนถึงสิ่งที่จะกลายเป็นมาตรฐานความปลอดภัยสำหรับองค์กรต่าง ๆ โดยเตือนบุคลากรเกี่ยวกับการใช้โปรแกรมแชตบอตที่สาธารณชนสามารถเข้าใช้กันได้โดยทั่วไป

สำนักข่าวรอยเตอร์ได้ทำการสำรวจความเห็นของบริษัทต่าง ๆ ทั่วโลกซึ่งพบว่า มีบริษัทจำนวนมากขึ้นที่เริ่มใช้มาตรการป้องกันความเสี่ยงจากแชตบอต AI ซึ่งได้แก่ซัมซุง, อะเมซอน.คอม และดอยซ์แบงก์ ขณะที่บริษัทแอปเปิ้ลซึ่งปฏิเสธที่จะแสดงความเห็นนั้น ก็เริ่มใช้มาตรการป้องกันเช่นกัน

ข้อมูลจาก Fishbowl ซึ่งได้จากการสำรวจบุคลากรเกือบ 12,000 คนจากบริษัทชั้นนำหลายแห่งในสหรัฐพบว่า นับจนถึงสิ้นเดือนม.ค.ปีนี้ มีบุคลากรประมาณ 43% ใช้ ChatGPT หรือเครื่องมือ AI ชนิดอื่น ๆ โดยไม่ได้แจ้งให้ผู้บริหารทราบ

ก่อนหน้านี้ Team8 ซึ่งเป็นบริษัทวิจัยด้านไซเบอร์สัญชาติอิสราเอลเตือนว่า บริษัทต่าง ๆ ที่ใช้แชตบอต ChatGPT เป็นเครื่องมืออำนวยความสะดวกด้านข้อมูลนั้น อาจจะทำให้ข้อมูลของลูกค้าและความลับด้านการค้าตกอยู่ในความเสี่ยง

รายงานของ Team8 ระบุว่า การนำแชตบอต AI รุ่นใหม่มาใช้เป็นเครื่องมือในการเขียนนั้น อาจส่งผลให้บริษัทต่าง ๆ มีความเสี่ยงที่จะทำข้อมูลรั่วไหลและเผชิญกับการถูกดำเนินคดีทางกฎหมาย โดยนักวิจัยของ Team8 มีความกังวลว่า แชตบอต AI มีความเสี่ยงที่จะถูกแฮกเกอร์เจาะข้อมูลที่มีความอ่อนไหวของบริษัท หรือกระทำในสิ่งที่เป็นภัยต่อบริษัท นอกจากนี้ ยังกังวลว่า ข้อมูลลับที่ถูกป้อนเข้าไปในแชตบอตนั้น อาจจะถูกกลุ่มบริษัท AI นำไปใช้ในวันข้างหน้า

รายงานยังระบุด้วยว่า บริษัทเทคโนโลยีรายใหญ่ซึ่งรวมถึงไมโครซอฟท์และอัลฟาเบท ต่างก็แข่งขันกันในการเพิ่มประสิทธิภาพของแชตบอตและเสิร์ชเอนจิน รวมทั้งดึงเอาข้อมูลจากอินเทอร์เน็ตมาป้อนในแชตบอต เพื่ออำนวยความสะดวกให้กับบรรดาผู้ใช้งานที่ต้องการคำตอบที่รวดเร็ว แต่หากเครื่องมือเหล่านี้ถูกป้อนข้อมูลที่เป็นความลับหรือข้อมูลส่วนตัว ก็เป็นเรื่องยากมากที่จะลบข้อมูลเหล่านั้นออกไป

ข้อมูลดังกล่าวสะท้อนให้เห็นถึงมุมมองอีกด้านหนึ่งของการใช้งาน ChatGPT หลังจากเมื่อไม่นานมานี้ ทีมนักวิจัยของธนาคารกลางสหรัฐ (เฟด) สาขาริชมอนด์ได้ทำการทดสอบเพื่อประเมินความสามารถของ ChatGPT โดยระบุว่าแชตบอตดังกล่าวสามารถถอดรหัสแถลงการณ์ของคณะกรรมการเฟดได้ว่ากำลังส่งสัญญาณถึงการคุมเข้มหรือผ่อนคลายนโยบายการเงิน

 

โดย สำนักข่าวอินโฟเควสท์ (16 มิ.ย. 66)

Tags: , , , ,
Back to Top