เมื่อ “คน” คือเหตุผลที่ทำให้การใช้ AI ในบริษัทล้มเหลว ไม่ใช่เทคโนโลยี
แม้ปัญญาประดิษฐ์ (AI) จะถูกยกย่องว่าเป็นกุญแจสำคัญในการตัดสินใจเชิงข้อมูล จุดประกายความคิดสร้างสรรค์ และเพิ่มประสิทธิภาพการทำงาน แต่งานวิจัยจากมหาวิทยาลัยอัลโต (Aalto University) ชี้ให้เห็นว่า 4 ใน 5 บริษัทใช้ประโยชน์จาก AI ไม่ได้อย่างที่คาดหวัง หลังจากการปรับใช้ AI ในกระบวนการทำงาน ซึ่งสาเหตุหลักไม่ได้อยู่ที่ตัวเทคโนโลยี AI หากแต่อยู่ที่ “คน” ต่างหาก
อารมณ์มีผลต่อการยอมรับเทคโนโลยี
ผศ. นาตาเลีย วูโอรี (Natalia Vuori) จากมหาวิทยาลัยอัลโต เผยว่าที่ผ่านมาเรามักโทษความซับซ้อนของระบบหรือความแม่นยำของข้อมูลที่มาจาก AI ว่ามีความผิดพลาด ทว่าข้อมูลจากงานวิจัยพบว่าปัจจัยชี้ขาดความสำเร็จในการปรับใช้ AI เข้ามาเป็นส่วนหนึ่งของวัฒนธรรมการทำงานในองค์กร คือความรู้สึกทางอารมณ์และพฤติกรรมของพนักงานต่อการใช้ AI เพราะหากละเลยประเด็นนี้ ต่อให้ AI ฉลาดแค่ไหนก็ไม่มีประโยชน์
กรณีศึกษา : แม้ AI ประสิทธิภาพสูง แต่ก็ยังไม่สบายใจ
ทีมวิจัยติดตามบริษัทที่ปรึกษาซึ่งมีพนักงานราว 600 คน นานกว่าหนึ่งปี โดยบริษัทวางแผนใช้ AI วิเคราะห์ Digital Footprints เพื่อจัดทำแผนผังความสามารถ (Capability map) เพื่อใช้ในการเลือกทีมให้เข้ากับงานได้มีประสิทธิภาพขึ้น ขณะเดียวกันก็เตรียมพัฒนาซอฟต์แวร์นี้ไปขายลูกค้า
แต่ผ่านไปเกือบ 2 ปี โครงการก็ต้องยุติลง ซึ่งจากการสำรวจสาเหตุของความล้มเหลวนี้ พบว่า
- พนักงานบางคนมองว่าเครื่องมือมีประสิทธิภาพสูง แต่ไม่สบายใจ ที่ AI สามารถเข้าถึงและมีสิทธิ์ในการตรวจบันทึก ปฏิทินงาน อีเมล และการสื่อสารภายในทีม
- เมื่อพนักงานบางส่วนหยุดป้อนข้อมูลให้ AI หรือให้ข้อมูลที่ไม่ครบถ้วน ในขณะที่พนักงานอีกส่วนป้อนให้ AI อย่างเต็มที่อาจส่งผลให้โมเดล AI คลาดเคลื่อนมากขึ้นเรื่อย ๆ
- ความแม่นยำที่ลดลงทำให้พนักงานบางส่วนรู้สึกขาดความเชื่อมั่นใน AI และเลือกที่จะไม่ใช้ AI ในการทำงาน
รูปแบบของ “ความเชื่อมั่น” ที่พนักงานมีต่อ AI
งานวิจัยแบ่งความไว้วางใจออกเป็น 2 รูปแบบ
- ความเชื่อมั่นเชิงเหตุผล (Cognitive trust) – เชื่อว่า AI ทำงานได้จริงหรือไม่
- ความเชื่อมั่นเชิงอารมณ์ (Emotional trust) – รู้สึกโอเคที่จะใช้งานหรือเปล่า
เมื่อนำความเชื่อมั่นทั้ง 2 รูปแบบนี้มารวมกัน จะเกิดเป็นผู้ใช้จำนวน 4 กลุ่มด้วยกัน
ประเภท | ความเชื่อมั่น เชิงเหตุผล | ความเชื่อมั่น เชิงอารมณ์ | พฤติกรรม |
เชื่อมั่นอย่างสูงสุด (Full trust) | สูง | สูง | ใช้ AI เต็มที่ พร้อมให้ AI เข้าถึงข้อมูล |
ไม่เชื่อเลย (Full distrust) | ต่ำ | ต่ำ | ปฏิเสธหรือหลีกเลี่ยงการใช้ |
เชื่อมั่น แต่ไม่สบายใจ (Uncomfortable trust) | สูง | ต่ำ | ให้ข้อมูลน้อย / แก้ไขข้อมูลที่ให้กับ AI |
สบายใจ แต่ไม่เชื่อมั่น (Blind trust) | ต่ำ | สูง | ใช้ตามกระแส แม้ไม่เข้าใจผลลัพธ์ของ AI |
ซึ่งทำให้ทีมวิจัยพบว่า ต่อให้พนักงาน “เชื่อมั่น” ว่า AI ทำงานได้ดี แต่ถ้า “ไม่สบายใจ” พวกเขาก็จะจำกัดการเข้าถึงข้อมูล หรือบิดเบือนข้อมูลบางอย่างจากระบบอยู่ดี
ความสำเร็จในการใช้ AI ในองค์กรอาจมาจากกลยุทธ์ในการใช้
วูโอรีสรุปว่า การนำ AI มาใช้ไม่ใช่แค่โจทย์ในการปรับใช้เทคโนโลยี แต่คือโจทย์ของผู้นำองค์กรในการสร้างความรู้สึกปลอดภัย และสบายใจในการใช้ AI หากขาดวิธีจัดการความรู้สึกและความเชื่อมั่นของพนักงาน ต่อให้ AI ฉลาดแค่ไหนก็ไม่อาจปลดปล่อยศักยภาพที่แท้จริงได้
โดยงานวิจัยชิ้นนี้แนะนำว่า ควรแยกแยะประเภทพนักงานและสื่อสารให้ตรงจุด สร้างความโปร่งใสเพื่อสร้างความสบายใจเกี่ยวกับการเข้าถึงข้อมูลและความเป็นส่วนตัวของพนักงาน ไปจนถึงการทดลองใช้ AI ในโปรเจกต์เล็ก ๆ ให้พนักงานได้ลองผิดลองถูก โดยไม่มีผลกระทบต่อหน้าที่การงาน ซึ่งอาจช่วยปลดล็อกศักยภาพที่แท้จริงของพนักงานและ AI ไปพร้อมกัน