เมื่อ “คน” คือเหตุผลที่ทำให้การใช้ AI ในบริษัทล้มเหลว ไม่ใช่เทคโนโลยี

แม้ปัญญาประดิษฐ์ (AI) จะถูกยกย่องว่าเป็นกุญแจสำคัญในการตัดสินใจเชิงข้อมูล จุดประกายความคิดสร้างสรรค์ และเพิ่มประสิทธิภาพการทำงาน แต่งานวิจัยจากมหาวิทยาลัยอัลโต (Aalto University) ชี้ให้เห็นว่า 4 ใน 5 บริษัทใช้ประโยชน์จาก AI ไม่ได้อย่างที่คาดหวัง หลังจากการปรับใช้ AI ในกระบวนการทำงาน ซึ่งสาเหตุหลักไม่ได้อยู่ที่ตัวเทคโนโลยี AI หากแต่อยู่ที่ “คน” ต่างหาก

อารมณ์มีผลต่อการยอมรับเทคโนโลยี

ผศ. นาตาเลีย วูโอรี (Natalia Vuori) จากมหาวิทยาลัยอัลโต เผยว่าที่ผ่านมาเรามักโทษความซับซ้อนของระบบหรือความแม่นยำของข้อมูลที่มาจาก AI ว่ามีความผิดพลาด ทว่าข้อมูลจากงานวิจัยพบว่าปัจจัยชี้ขาดความสำเร็จในการปรับใช้ AI เข้ามาเป็นส่วนหนึ่งของวัฒนธรรมการทำงานในองค์กร คือความรู้สึกทางอารมณ์และพฤติกรรมของพนักงานต่อการใช้ AI เพราะหากละเลยประเด็นนี้ ต่อให้ AI ฉลาดแค่ไหนก็ไม่มีประโยชน์

กรณีศึกษา : แม้ AI ประสิทธิภาพสูง แต่ก็ยังไม่สบายใจ

ทีมวิจัยติดตามบริษัทที่ปรึกษาซึ่งมีพนักงานราว 600 คน นานกว่าหนึ่งปี โดยบริษัทวางแผนใช้ AI วิเคราะห์ Digital Footprints เพื่อจัดทำแผนผังความสามารถ (Capability map) เพื่อใช้ในการเลือกทีมให้เข้ากับงานได้มีประสิทธิภาพขึ้น ขณะเดียวกันก็เตรียมพัฒนาซอฟต์แวร์นี้ไปขายลูกค้า

แต่ผ่านไปเกือบ 2 ปี โครงการก็ต้องยุติลง ซึ่งจากการสำรวจสาเหตุของความล้มเหลวนี้ พบว่า

  • พนักงานบางคนมองว่าเครื่องมือมีประสิทธิภาพสูง แต่ไม่สบายใจ ที่ AI สามารถเข้าถึงและมีสิทธิ์ในการตรวจบันทึก ปฏิทินงาน อีเมล และการสื่อสารภายในทีม
  • เมื่อพนักงานบางส่วนหยุดป้อนข้อมูลให้ AI หรือให้ข้อมูลที่ไม่ครบถ้วน ในขณะที่พนักงานอีกส่วนป้อนให้ AI อย่างเต็มที่อาจส่งผลให้โมเดล AI คลาดเคลื่อนมากขึ้นเรื่อย ๆ
  • ความแม่นยำที่ลดลงทำให้พนักงานบางส่วนรู้สึกขาดความเชื่อมั่นใน AI และเลือกที่จะไม่ใช้ AI ในการทำงาน

รูปแบบของ “ความเชื่อมั่น” ที่พนักงานมีต่อ AI

งานวิจัยแบ่งความไว้วางใจออกเป็น 2 รูปแบบ

  1. ความเชื่อมั่นเชิงเหตุผล (Cognitive trust) – เชื่อว่า AI ทำงานได้จริงหรือไม่
  2. ความเชื่อมั่นเชิงอารมณ์ (Emotional trust) – รู้สึกโอเคที่จะใช้งานหรือเปล่า

เมื่อนำความเชื่อมั่นทั้ง 2 รูปแบบนี้มารวมกัน จะเกิดเป็นผู้ใช้จำนวน 4 กลุ่มด้วยกัน

ประเภทความเชื่อมั่น
เชิงเหตุผล
ความเชื่อมั่น
เชิงอารมณ์
พฤติกรรม
เชื่อมั่นอย่างสูงสุด (Full trust)สูงสูงใช้ AI เต็มที่ พร้อมให้ AI เข้าถึงข้อมูล
ไม่เชื่อเลย (Full distrust)ต่ำต่ำปฏิเสธหรือหลีกเลี่ยงการใช้
เชื่อมั่น แต่ไม่สบายใจ (Uncomfortable trust)สูงต่ำให้ข้อมูลน้อย / แก้ไขข้อมูลที่ให้กับ AI
สบายใจ แต่ไม่เชื่อมั่น (Blind trust)ต่ำสูงใช้ตามกระแส แม้ไม่เข้าใจผลลัพธ์ของ AI

ซึ่งทำให้ทีมวิจัยพบว่า ต่อให้พนักงาน “เชื่อมั่น” ว่า AI ทำงานได้ดี แต่ถ้า “ไม่สบายใจ” พวกเขาก็จะจำกัดการเข้าถึงข้อมูล หรือบิดเบือนข้อมูลบางอย่างจากระบบอยู่ดี

ความสำเร็จในการใช้ AI ในองค์กรอาจมาจากกลยุทธ์ในการใช้

วูโอรีสรุปว่า การนำ AI มาใช้ไม่ใช่แค่โจทย์ในการปรับใช้เทคโนโลยี แต่คือโจทย์ของผู้นำองค์กรในการสร้างความรู้สึกปลอดภัย และสบายใจในการใช้ AI หากขาดวิธีจัดการความรู้สึกและความเชื่อมั่นของพนักงาน ต่อให้ AI ฉลาดแค่ไหนก็ไม่อาจปลดปล่อยศักยภาพที่แท้จริงได้

โดยงานวิจัยชิ้นนี้แนะนำว่า ควรแยกแยะประเภทพนักงานและสื่อสารให้ตรงจุด สร้างความโปร่งใสเพื่อสร้างความสบายใจเกี่ยวกับการเข้าถึงข้อมูลและความเป็นส่วนตัวของพนักงาน ไปจนถึงการทดลองใช้ AI ในโปรเจกต์เล็ก ๆ ให้พนักงานได้ลองผิดลองถูก โดยไม่มีผลกระทบต่อหน้าที่การงาน ซึ่งอาจช่วยปลดล็อกศักยภาพที่แท้จริงของพนักงานและ AI ไปพร้อมกัน