fbpx
Insights 10 July 2024

เปิด 7 สาเหตุและวิธีแก้ปัญหาจาก AI ในธุรกิจการเงิน

ทำอย่างไรหากผลลัพธ์ AI ทำร้ายองค์กร?

เปิด 7 สาเหตุและวิธีแก้ปัญหาจาก AI ในธุรกิจการเงิน

เมื่อ AI กำลังคืบคลานเข้ามาเป็นส่วนหนึ่งในชีวิตมนุษย์ จึงไม่น่าแปลกใจที่อุตสาหกรรมหลัก ๆ ต่างตบเท้าเข้าลงทุน เพื่อหวังใช้ประโยชน์จาก AI ในธุรกิจโดยเฉพาะภาคการเงินที่มีบริการเกี่ยวข้องกับกิจกรรมในชีวิตประจำวันของผู้คน 

ผลสำรวจของ IBM พบว่า 2 ใน 3 ของ CEO ในธุรกิจการเงินและธนาคาร พึงพอใจกับผลลัพธ์จากการปรับใช้ AI และระบบอัตโนมัติ และพร้อมรับความเสี่ยงหาก AI สามารถรักษาขีดความสามารถในการแข่งขันได้ อย่างไรก็ตามทุกความเสี่ยงมีราคาที่ต้องจ่าย ดังนั้นการวางกลยุทธ์และ AI Roadmap จึงเป็นปัจจัยสำคัญที่จะใช้รับมือกับความท้าทายที่อาจส่งผลต่อสังคมและธุรกิจ รวมถึงกฎระเบียบหรือกฎหมายที่จะเข้ามาควบคุม AI อย่างเป็นรูปธรรมในอีกไม่ช้า 

7 ความท้าทาย & แนวทางแก้ไขปัญหา AI ในอุตสาหกรรมการเงิน

  1. ขาดกลยุทธ์ด้าน AI: ธนาคารและสถาบันการเงินจำนวนมากกำลังประสบปัญหาจากการปรับใช้ AI โดยไม่มีแผน AI Roadmap /กลยุทธ์ ทำให้ให้ไม่สามารถก้าวข้ามขั้นตอนการทดลองและขยายการใช้งาน AI ทั่วทั้งองค์กร 

    แนวทางแก้ไข: องค์กรต้องกำหนดวิสัยทัศน์ พัฒนากลยุทธ์หรือมี AI Roadmap ที่ชัดเจน และมุ่งสู่การเป็น AI-First Institution ผ่านการผลักดันให้ AI เป็นหนึ่งในโครงสร้างพื้นฐานในการนำเสนอสิ่งใหม่ ๆ ที่มีมูลค่าต่อธุรกิจและยกระดับประสบการณ์ใช้งานของลูกค้า
  1. ระบบไอทีและข้อมูลไม่มีคุณภาพ: โครงสร้างพื้นฐานด้านไอทีที่ล้าสมัยและข้อมูลด้อยคุณภาพ กำลังเป็นปัญหาชวนปวดหัวของธุรกิจที่กำลังใช้งาน AI เนื่องจากปัญหาเหล่านี้เป็นอุปสรรคต่อการพัฒนาขีดความสามารถและการบูรณาการการทำงานระหว่าง AI และระบบอื่น ๆ

    แนวทางแก้ไข: องค์กรต้องลงทุนยกระดับระบบหลักให้ทันสมัย พร้อมพัฒนา Data Strategy ให้ความสำคัญกับ คุณภาพข้อมูล (Data Quality) และนโยบายการเข้าถึงข้อมูลและความปลอดภัย   
  2. โมเดลการทำงานและกลยุทธ์ล้าสมัย: บ่อยครั้งที่โมเดลการทำงานแบบดั้งเดิม มักเป็นอุปสรรคต่อการทำงานร่วมกันระหว่างทีมงานธุรกิจและทีมไอที ส่งผลต่อความสำเร็จของการปรับใช้ AI ในองค์กร

    แนวทางแก้ไข: ธุรกิจควรปรับใช้โมเดล Agile Operation เพื่อเพิ่มความคล่องตัวในการทำงาน ปรับปรุงวิธีการทำงานร่วมกันระหว่างทีม พร้อมส่งเสริมการใช้นวัตกรรม และแผนการพัฒนาและเพิ่มพูนทักษะให้ทีมงานผู้เชี่ยวชาญอย่างสม่ำเสมอ เพื่อลดปัญหาจากการใช้งาน AI ในระยะยาว
  1. ปัญหาด้านจริยธรรมและกฎหมาย: การขยายตัวอย่างรวดเร็วของ AI ก่อให้เกิดคำถามด้านจริยธรรมและความเป็นส่วนตัวของข้อมูล รวมถึงอคติของปัญญาประดิษฐ์ ซึ่งภาคการเงินต้องให้ความสำคัญและจัดการกับความท้าทายนี้อย่างระมัดระวัง 

    แนวทางแก้ไข: เลือกใช้กรอบการกำกับดูแล AI ที่เข้มแข็งและให้ความสำคัญกับ ความโปร่งใสของข้อมูล (Data Governance) เพื่อสร้างความน่าเชื่อถือกับข้อมูลที่ผ่านการวิเคราะห์ด้วย AI รวมถึงไขข้อกังวัลใจด้านความปลอดภัยและความเป็นส่วนตัวของข้อมูลลูกค้า 
  1. อคติและความไม่ยุติธรรมของ AI: อคติของโมเดล AI ก่อให้เกิดการเลือกปฏิบัติและผลลัพธ์ที่ไม่ยุติธรรมอย่างไม่มีที่สิ้นสุด สร้างความเสียหายต่อภาพลักษณ์และการเงินขององค์กร

    แนวทางแก้ไข: กำหนดให้มีการตรวจสอบโมเดลอย่างสม่ำเสมอ กระจายข้อมูลการฝึกและตรวจสอบความยุติธรรมตลอดระยะเวลาการพัฒนาโมเดล
  1. ความเสี่ยง Cyber Security: ระบบ AI อาจเปิดเผยช่องโหว่หรือจุดอ่อนโดยไม่ตั้งใจ และอาจนำไปสู่การโจมตีไซเบอร์ได้ ดังนั้นการปกป้องข้อมูลสำคัญเป็นเรื่องท้าทายและประเด็นที่ภาคการเงินต้องพิจารณาอย่างรัดกุม 

    แนวทางแก้ไข: ยกระดับมาตรฐานด้านความมั่นคงปลอดภัยไซเบอร์ ดำเนินการตรวจสอบระบบอย่างเข้มงวดและสม่ำเสมอ และให้ความสำคัญกับความเป็นส่วนตัวของข้อมูลเป็นอันดับต้น ๆ
  1. แรงต้านจากพนักงาน: แรงต่อต้านการใช้ AI ของพนักงานในองค์กร เป็นอุปสรรคต่อการปรับใช้ AI เนื่องจากพนักงานส่วนใหญ่กลัวว่า AI จะเอามาแทนที่ตนเอง หรือคิดว่าตนเองไม่สามารถปรับตัวกับแนวทางการทำงานรูปแบบใหม่ได้ 

    แนวทางแก้ไข: ส่งเสริมวัฒนธรรมเกี่ยวกับนวัตกรรมใหม่ รวมถึงฝึกอบรมและสื่อสารถึงประโยชน์จากการทำงานร่วมกับ AI เพื่อสร้างการยอมรับในกลุ่มผู้มีส่วนได้ส่วนเสีย

Use Case ที่เกิดจากด้านมืดของ AI

แม้ AI มีประโยชน์มากมายแต่ถ้าใช้ผิดชีวิตก็เปลี่ยนได้เช่นกัน ด้วยเหตุนี้เราจะพาทุกคนไปรู้จัก Worst Use Cases ของ AI ในภาคอุตสาหกรรมการเงิน 

1. Algorithmic Bias (อัลกอริทึมมีอคติ) 

แม้อนาคตของ AI ในภาคการเงินยังคงสดใส แต่ศักยภาพของมันก็อาจถูดบดบังด้วยด้านมืดของอัลกอริทึมที่มีอคติ ซึ่งประเด็นนี้อาจนำไปสู่การเลือกปฏิบัติในกระบวนการทำงาน อาทิ การอนุมัติสินเชื่อ การคิดค่าเบี้ยประกันที่ไม่ยุติธรรม รวมถึงการกีดกันการให้บริการทางการเงินกับกลุ่มคนบางกลุ่ม

โดยอคติสามารถเกิดขึ้นกับ AI ได้ 3 รูปแบบหลัก ๆ ดังนี้ 

  • Data Bias: ข้อมูลที่ใช้ฝึก AI มีอคติ ทำให้โมเดลมีอคติอย่างหลีกเลี่ยงไม่ได้
  • Algorithmic Bias: การออกแบบและโครงสร้างของอัลกอรึทึมที่มีอคติ สามารถทำให้ผลลัพธ์ที่ได้เต็มไปด้วยอคติได้
  • Human Bias: ทางเลือกของ AI ที่ถูกฝึกด้วยนักพัฒนาหรือ Data Scientist ที่มีความเอนเอียง อาจทำให้ระบบมีอคติโดยไม่ตั้งใจ 

อคติ AI (Biased AI) ในภาคอุตสาหกรรมการเงินก่อให้เกิดปัญหาในวงกว้าง ดังต่อไปนี้ 

  • การปฏิเสธสินเชื่อ ประกันและบริการทางการเงินรูปแบบอื่น ๆ นำไปสู่ผลกระทบต่อความคล่องตัวของเศรษฐกิจและปัญหาสภาพคล่องส่วนบุคคล
  • การเลือกปฏิบัติส่งผลต่อความน่าเชื่อถือและภาพลักษณ์ของสถาบันการเงิน 
  • อคติของ AI อาจทำให้ปัญหาความเหลือมล้ำในสังคมเพิ่มมากขึ้น 

2.  Security Vulnerabilities (จุดอ่อนด้านความปลอดภัย)

การเติบโตของ AI กำลังนำไปสู่การขยายพื้นที่โจมตีเพิ่มให้อาชญากรไซเบอร์ เพราะระบบ AI มีการพัฒนา เรียนรู้ และปรับตัวอยู่ตลอดเวลา ทำให้ยากต่อการตรวจสอบและป้องกัน โดยช่องโหว่ที่ตรวจพบได้บ่อยบนระบบ AI มีดังต่อไปนี้ 

  • Poisoned Data: แฮกเกอร์แอบใส่ข้อมูลที่มีอคติ/ข้อมูลบิดเบือนในกระบวนการฝึก AI ทำให้ผลลัพธ์ผิดพลาดสร้างความเสียหายร้ายแรงแก่องค์กรได้ 
  • Model Manipulation: แฮกเกอร์สามารถโจมตีจุดอ่อนของโมเดล AI ทำให้การทำงานบกพร่อง ข้อมูลมีอคติหรือแสดงผลบวกปลอม (False Positive) หรือข้อมูลหลอก เพื่อเปิดประตูให้แฮกเกอร์เจาะเข้าระบบหรือเข้าถึงข้อมูลทางการเงินที่ละเอียดอ่อน
  • Adversarial Examples: แฮกเกอร์ใส่ Designed Inputs (เช่น รูปหรือเสียงปลอม) หลอกโมเดล AI หลีกเลี่ยงระบบรักษาความปลอดภัย เพื่อให้ได้รับสิทธิ์เข้าถึงข้อมูลสำคัญ  

3. Privacy Violations (ละเมิดความเป็นส่วนตัว) 

ยิ่งมีการจัดเก็บข้อมูลมากขึ้น ความเสี่ยงจากการละเมิดข้อมูลสำคัญก็เพิ่มขึ้นตามไปด้วย โดยแฮกเกอร์จะใช้ประโยชน์จาก AI เจาะเข้าระบบเพื่อขโมยข้อมูล อีกทั้งอัลกอริทึม AI ยังสามารถสร้างข้อมูลเฉพาะบุคคล ที่อาจนำไปสู่การเลือกปฏิบัติในการอนุมัติสินเชื่อ กำหนดค่าเบี้ยประกันที่ไม่ยุติธรรม หรือกำหนดกลุ่มเป้าหมายแคมเปญการตลาดโดยอ้างอิงจากข้อมูลที่ละเอียดอ่อน นอกจานี้การรวบรวมและวิเคราะห์ข้อมูล เพื่อใช้ในกระบวนการฝึกและทำงานของ AI อาจทำให้ลูกค้ารู้สึกถูกละเมิดข้อมูลทางการเงินและความเป็นส่วนตัวได้

ผลลัพธ์เชิงลบจากการใช้ AI ที่เพิ่มขึ้นอย่างมีนัยสำคัญ กำลังกดดันให้สถาบันการเงินทั่วโลกยกระดับความปลอดภัยไซเบอร์และกระบวนการทำงาน ให้ความสำคัญกับการบูรณาการการทำงานกับโซลูชัน AI แต่การใช้งานเทคโนโลยีขั้นสูงที่มีความซับซ้อนนี้ จำเป็นต้องมีทีมงานผู้เชี่ยวชาญเฉพาะด้าน เพื่อพัฒนาโมเดล AI ที่สามารถทำงานร่วมกับแอปฯขององค์กรได้อย่างราบรื่นและปลอดภัย สามารถปกป้องข้อมูลทางการเงินขององค์กรและข้อมูลส่วนตัวของลูกค้าได้ 

ยิ่งไปกว่านั้นองค์กรต้องเตรียมความพร้อมให้กับโมเดล AI ให้สามารถรองรับระบบที่นับวันก็ยิ่งมีความซับซ้อนมากขึ้น ซึ่งการฝึก AI ในภาคการเงินที่มีทั้งบริบทและศัพท์ทางเทคนิคเฉพาะมากมาย ต้องใช้ข้อมูลที่ทันสมัยและถูกต้อง เพื่อให้ AI สามารถปรับปรุงการโต้ตอบอย่างเหมาะสมกับลูกค้าแต่ละราย 

บลูบิคในฐานะที่ปรึกษาด้านเทคโนโลยีชั้นนำและผู้เชี่ยวชาญด้าน AI สามารถช่วยคุณจัดการกับความท้าทายและปัญหาต่าง ๆ ด้วยการวางกลยุทธ์ การพัฒนาโมเดล AI ขั้นสูง จนถึงการเชื่อมโยงกับบริการ/แอปฯต่าง ๆ บน Digital Landscape ทำให้องค์กรสามารถใช้ประโยชน์จาก AI ขั้นสูงได้อย่างเต็มประสิทธิภาพ พร้อมยกระดับผลลัพธ์ของกระบวนการทำงานด้วยระบบอัตโนมัติที่ปลอดภัยและเชื่อถือได้ สำหรับผู้ที่สนใจสามารถติดต่อเข้ามาได้ที่

[email protected] 

☎ 02-636-7011

ขอบคุณข้อมูลอ้างอิงจาก newsroom.ibm, linkedin, techmagic