fbpx
Insights 15 August 2024

‘ใส่ขยะเข้ามา-ได้ขยะออกไป’ เพราะเหตุนี้ Data Governance ถึงสำคัญต่อ AI

ความกังวลเกี่ยวกับการใช้ข้อมูลของ Artificial Intelligence – AI กำลังร้อนถึงหน่วยงานต่าง ๆ รวมถึงองค์กรธุรกิจ ให้ต้องหันมาใส่ใจกับการกำกับดูแลข้อมูลอย่างจริงจัง เพราะการใช้ข้อมูลที่ขาดการกำกับดูแล บกพร่อง มีอคติและอันตราย ทำให้เสี่ยงต่อการละเมิดความเป็นส่วนตัวของข้อมูล กฎระเบียบและข้อกฎหมาย ซ้ำร้ายผลลัพธ์ไม่ถูกต้องยังอาจนำไปสู่การตัดสินใจผิดพลาดทางธุรกิจ ดังวลีคุ้นหูในแวดวงไอที ‘Garbage in-Garbage out – GIGO’ ที่แปลว่า เมื่อเราเอาขยะเข้าสู่ระบบ เราก็จะได้ผลลัพธ์ขยะ

ฉะนั้นองค์กรที่บูรณาการหรือกำลังต้องการใช้งาน AI จำเป็นต้องมีการกำกับดูแลข้อมูลสำหรับ AI หรือ AI Data Governance  

AI Data Governance คืออะไร

AI Data Governance หรือ ธรรมาภิบาลข้อมูล AI คือ แนวทางการกำกับดูแลจัดการและใช้ประโยชน์จากข้อมูลของ AI ภายในองค์กรอย่างเป็นระบบ ทำให้ข้อมูลที่ใช้ฝึกโมเดล AI มีความถูกต้อง ปลอดภัย ปราศจากอคติและถูกใช้อย่างเหมาะสม โดย AI Data Governance ครอบคลุมถึงการกำหนดนโยบาย มาตรฐานและขั้นตอน/แนวทางในการเก็บรวบรวม จัดเก็บและวิเคราะห์ข้อมูล เพื่อให้กระบวนการดังกล่าวเป็นไปตามมาตรฐานทางกฎหมายและจริยธรรม 

การกำกับดูแลการใช้ข้อมูล AI ที่มีประสิทธิภาพจะช่วยแก้ไขปัญหาผลลัพธ์ผิดพลาด ลดความเสี่ยงการละเมิดข้อมูลสำคัญ โมเดล AI มีอคติและการใช้ข้อมูลที่ละเอียดอ่อนในทางที่ผิด นอกจากนี้ ยังช่วยเสริมภาพลักษณ์องค์กรด้านความโปร่งใสและความรับผิดชอบขององค์กร สร้างความไว้วางใจทั้งกับผู้มีส่วนได้ส่วนเสียและลูกค้าอีกด้วย 

เปิด 4 ความท้าทายที่องค์กรต้องเจอ หากปราศจาก Data Governance สำหรับ AI 

ปัจจัยที่ทำให้ AI Data Governance กลายเป็นกลไกสำคัญ ช่วยองค์กรรับมือกับความท้าทายจากการใช้งาน AI ประกอบไปด้วย 

  1. ความเสี่ยงด้านความปลอดภัยที่ซ่อนอยู่: เป็นเรื่องง่ายมากที่ข้อมูลละเอียดอ่อนหรือสำคัญของลูกค้า/องค์กร จะหลุดเข้าไปในกระบวนการการฝึก AI ที่มีการใช้ข้อมูลหลายร้อยเทราไบท์ และเครือข่ายสมองเทียมจะเรียนรู้ข้อมูลเหล่านี้โดยทันที ซึ่งผู้ใช้งาน AI สามารถเข้าถึงข้อมูลสำคัญดังกล่าวโดยที่ไม่มีใครตระหนักรู้ถึงช่องโหว่นี้เลยด้วยซ้ำ 
  2. เกิดข้อบกพร่อง User Interface – UI:  ผู้ใช้งาน AI สามารถป้อนคำสั่งด้วยภาษาปกติที่ใช้กันทั่วไปหรือ Natural Language ซึ่งความยืดหยุ่น (Flexible Input) นี้อาจทำให้เกิดการการป้อนข้อมูลที่ไม่คาดคิดได้ อาทิ ผู้ใช้งานอาจป้อนข้อมูลส่วนตัวหรือข้อมูลลับองค์กรโดยไม่ตั้งใจ และการบันทึกข้อมูลเหล่านี้ลงในระบบถือเป็นความเสี่ยงร้ายแรงทางธุรกิจ ดังนั้น องค์กรจำเป็นต้องใช้ความระมัดระวังและตรวจสอบอย่างเคร่งครัดในกระบวนการออกแบบ UI ด้วย 
  3. AI ไม่น่าเชื่อถือ: การฝึกอัลกอริทึม AI ที่ไม่ได้รับการออกแบบอย่างเหมาะสม จะทำให้โมเดล AI ไม่สามารถเข้าใจสิ่งต่าง ๆ ได้อย่างแตกฉาน ส่งผลให้ระบบ AI ไม่น่าเชื่อถือในที่สุด
  4. ต้นทุนการทดสอบราคาแพง: ผลลัพธ์จาก Flexible Input อาจทำให้ผลลัพธ์ของ AI มีความสับสน ยกตัวอย่าง Chatbot ที่ได้รับการฝึกด้วยชุดคำถาม/ข้อมูลที่ไม่ถูกต้อง ส่งผลให้ต้นทุนการทดสอบความถูกต้องของระบบสูงและต้องมีการตรวจตราและตรวจสอบอย่างสม่ำเสมอ

แนวทางการขับเคลื่อน AI Data Governance ในองค์กร

ระบบ AI จำเป็นต้องได้รับการกำกับดูแลด้านความปลอดภัยของข้อมูล UI และมาตรฐานการทดสอบ เพื่อสร้างความเชื่อมั่นให้กับระบบ และวันนี้ บลูบิค จะพาคุณไปรู้จักกับแนวทางเบื้องต้นในการขับเคลื่อน AI Data Governance ในองค์กร

1. ความปลอดภัยของข้อมูล: AI เป็นระบบที่ขับเคลื่อนด้วยข้อมูล ดังนั้น การรักษาความปลอดภัยและการจำกัดสิทธิ์การเข้าถึงข้อมูลสำหรับการฝึกนั้นเป็นสิ่งสำคัญอันดับต้น ๆ เพราะถ้าข้อมูลสำคัญหลุดเข้าไปในกระบวนการฝึก อาจทำให้เกิดการละเมิดข้อมูลได้ ดังนั้นการกำกับดูแล AI ที่เข้มแข็งจึงเป็นหัวใจสำคัญ และต้องดำเนินการตามนโยบาย Data Governance ขององค์กร และทุกคนที่มีส่วนเกี่ยวข้องกับข้อมูลล้วนมีหน้าที่รับผิดชอบต่อความปลอดภัยและความถูกต้องของข้อมูลด้วยเช่นกัน 

2. Interface ต้องความปลอดภัย: พลังแห่ง AI คือ ขีดความสามารถในการจัดการและตอบคำถามที่หลากหลาย นอกจากความสะดวกสบายแล้ว Flexible Input ยังเปิดโอกาสรับความเสี่ยงใหม่ ๆ จากการที่ผู้ใช้งานเปิดเผยข้อมูลสำคัญโดยไม่ตั้งใจกับโมเดล AI และจบลงด้วยการบันทึกเหตุการณ์นั้น ๆ ลงในระบบ (Logs) หรือในกรณีเลวร้ายที่สุด อาจเปิดทางให้มัลแวร์เข้าสู่โมเดลหรือเปิดเผยข้อมูลส่วนบุคคล   
ดังนั้น การพัฒนาโมเดล AI จำเป็นต้องมั่นใจว่าข้อมูลที่เข้า-ออกในกระบวนการฝึกมีความปลอดภัย ซึ่งการรักษาความปลอดภัยนี้ หมายถึง การขจัดข้อมูลสำคัญออกจาก Input Logs และปฏิเสธ Input ที่อาจส่งผลกระทบต่อข้อมูลและระบบ และในส่วนของการออกแบบ UI หมายถึง การลด Use Cases ที่อาจนำข้อมูลสำคัญไปยังระบบ

3. มาตรฐานการทดสอบ: อ้างอิงจากเอกสารของ Google เกี่ยวกับการกำกับดูแล AI ระบุถึงหลักการสำคัญด้านความโปร่งใสและความรับผิดชอบใน AI นั้น ประกอบไปด้วย: 

  • ระบบการแจ้งเตือน: เป็นแนวทางที่ชี้ให้ผู้ใช้งานทราบถึงการแสดงผลลัพธ์ที่สุ่มเสี่ยงของ AI เช่นเดียวกับการแจ้งเตือนบนโซเชียลมีเดีย ยกตัวอย่าง ผู้ใช้งานสามารถแจ้งเตือนหากพบว่า AI ตอบโต้หรือแสดงผลลัพธ์ที่เกี่ยวข้องกับข้อมูลที่มีความละเอียดอ่อน ซึ่งระบบการแจ้งเตือนนี้สำคัญต่อ AI ในกรณีที่ระบบดำเนินการไม่เป็นไปตามที่กำหนดไว้
  • Output Contesting: เป็นระบบที่ใช้ยกเลิก/แก้ไขผลลัพธ์จาก AI ยกตัวอย่าง หาก Coding Assistant สงสัยว่ามีโค้ดที่บกพร่อง/มีปัญหา ผู้พัฒนาจะแทนที่โค้ดนั้นด้วยโค้ดที่ถูกต้อง ดังนั้น Output Contesting จึงมีความสำคัญในแง่มุมของการควบคุมไม่ให้ผลลัพธ์ที่ผิดพลาดจาก AI เผยแพร่ออกไป

แม้ว่า AI จะมีพลังมหาศาล แต่เราเริ่มเห็นแล้วว่าเทคโนโลยีนี้มาพร้อมกับปัญหา Data Governance หรือการกำกับดูแลข้อมูล ซึ่งอาจนำไปสู่ความล้มเหลวในการลงทุนพัฒนา AI จนถึงสร้างความเสียหายทั้งทางการเงินและภาพลักษ์ได้ 

‘บลูบิค’ ในฐานะที่ปรึกษาชั้นนำผู้ให้บริการดิจิทัลทรานส์ฟอร์เมชันครบวงจร ครอบคลุมตั้งแต่การวางรากฐาน Data Governance จนถึงการพัฒนาโมเดล AI และ ML ขั้นสูง สามารถช่วยปลดล็อคพร้อมยกระดับการกำกับดูแลข้อมูลของ AI ให้มีความปลอดภัยและเป็นไปตามนโนบายขององค์กร กฎระเบียบและกฎหมายที่เกี่ยวข้อง ควบคู่กับการใช้ประโยชน์จาก AI ได้อย่างมีประสิทธิภาพสูงสุดสอดรับกับความต้องการทางธุรกิจของแต่ละองค์กรได้อย่างแท้จริง สำหรับองค์กรที่สนใจสามารถติดต่อขอข้อมูลจากทีมงานผู้เชี่ยวชาญเฉพาะด้าน Data Governance ของบลูบิคได้ที่

[email protected] 

☎ 02-636-7011

ขอบคุณข้อมูลอ้างอิงจาก zeenea, atlan