เมื่อ AI กลายเป็นอาวุธสงคราม กองทัพตุรกีคิดค้น “โดรนทหาร” สังหารเป้าหมายได้เอง ไร้มนุษย์ควบคุม

องค์การสหประชาชาติ เผยในรายงานเมื่อเดือนมีนาคมว่าพบ โดรนแบบ 4 ใบพัดที่ปฏิบัติการด้วยระบบ AI ชื่อรหัส Kargu-2 ผลิตและพัฒนาโดย STM บริษัทเทคโนโลยีทางการทหารสัญชาติตุรกี โดรนดังกล่าวนี้ถูกนำมาใช้ในสงครามกลางเมืองลิเบีย เพื่อโจมตีทหารของฝ่าย “กองทัพแห่งชาติลิเบีย” (แอลเอ็นเอ) ภายใต้การนำของจอมพลคาลิฟา ฮาฟตาร์ (Khalifa Haftar)

Khalifa Haftar

รายงานจำนวน 548 หน้านี้ถูกเขียนขึ้นโดย กลุ่มผู้เชี่ยวชาญภายใต้คณะมนตรีความมั่นคงแห่งสหประชาชาติ (UN Security Council) ที่ติดตามความเคลื่อนไหวของสงครามกลางเมืองในลิเบีย แต่ไม่ได้มีการเปิดเผยว่า มีผู้เสียชีวิตจำนวนเท่าใดจากการโจมตีของโดรนสังหารนี้ แต่จุดมุ่งหมายของรายงานนี้ เพื่อเร่งเร้าความตื่นตัวในระดับโลกให้ร่วมกันต่อต้าน “จักรกลสังหาร” เหล่านี้ก่อนที่จะสายเกินไป

ตลอดระยะเวลากว่า 1 ปี ที่องค์การสหประชาชาติได้ให้การรับรอง “รัฐบาลสามัคคีแห่งชาติ” (จีเอ็นเอ) ของลิเบีย ซึ่งมีที่มั่นในกรุงตริโปลีทางภาคตะวันตก ทางองค์การสหประชาติก็คอยจับตาปฏิบัติการของกลุ่มจีเอ็นเอ ที่ขับไล่กลุ่มแอลเอ็นเอให้ถอนกำลังออกไปจากกรุงตริโปลี ก็พบว่ามีการใช้โดรนสังหารเข้าร่วมในปฏิบัติการครั้งนี้มาตั้งแต่เดือน มกราคม 2020 แล้ว

“ขบวนพาหนะขนส่ง และกองกำลังของจอมพลคาลิฟา ฮาฟตาร์ ขณะกำลังถอนกำลังจากกรุงตริโปลี ได้ถูกล่าสังหารโดย อากาศยานต่อสู้ไร้คนขับ (Unmanned combat aerial vehicle) หรือ ระบบอาวุธสังหารอัตโนมัติ (lethal autonomous weapon systems) อย่างเช่น โดรน STM Kargu-2”
ความตอนหนึ่งจากรายงานขององค์การสหประชาชาติ

หน้าตาชัด ๆ ของ Kargu-2

บริษัท STM ผู้คิดค้นโดรนสังหารยังอธิบายความสามารถของ Kargu ไว้ว่าเป็นโดรนที่ติดตั้งระบบปฏิบัติการอัจฉริยะแบบ machine learning สามารถจำแนกและกำหนดเป้าหมายได้ด้วยตัวเอง แล้วยังสามารถเรียกรวมกลุ่ม 20 ลำเพื่อโจมตีพร้อม ๆ กันได้ด้วย

“ระบบอาวุธสังหารอัตโนมัติของเรานั้น ถูกโปรแกรมให้โจมตีเป้าหมายได้เองโดยไม่ต้องมีการเชื่อมต่อจากผู้ควบคุมไปยังอาวุธที่ติดตั้งบนตัวโดรน และระบบการยิงนั้นก็เป็นแบบ fire, forget and find (ลูกอาวุธปล่อยฯ จะพุ่งเข้าหาเป้าหมาย ได้เองโดยฐานยิงไม่ต้องคอยติดตามเป้า)

ส่วนหนึ่งในการเร่งเร้าให้เกิดความตื่นตัวของเทคโนโลยีล่าสังหารมนุษย์นี้ คือการร้องขอเสียงสนับสนุนจาก ผู้เชี่ยวชาญในเทคโนโลยีจักรกล และ ผู้ค้นคว้าเกี่ยวกับ AI ระดับโลกอย่าง อีลอน มัสก์ ให้ช่วยกันต่อต้าน “อาวุธอัตโนมัติที่มีอานุภาพรุนแรง” โดยเฉพาะอาวุธที่สามารถโปรแกรมให้สามารถค้นหาและสังหารบุคคลเป้าหมายได้

ผู้เชี่ยวชาญจากองค์กรสหประชาชาติยังแสดงความกังวลอีกว่า ในกระบวนการสร้าง อาวุธสังหารอัตโนมัติเหล่านี้ เพื่อให้อาวุธสามารถจำแนกหรือระบุเป้าหมายได้เองนั้น ระบบฐานข้อมูลของอาวุธนั้นยังไม่มีความซับซ้อนและไม่มีความเสถียรเพียงพอที่จะวางใจได้ และระบบ AI อาจจะเรียนรู้การทำงานมาแบบผิดพลาด

ซักคารี แคลเล็นบอร์น (Zachary Kallenborn) ที่ปรึกษาความมั่นคงแห่งชาติสหรัฐอเมริกา เป็นผู้หนึ่งที่มีความเชี่ยวชาญเฉพาะในเรื่อง อากาศยานต่อสู้ไร้คนขับ แคลเล็นบอร์นเชื่อว่า มีความเสี่ยงสูงที่ปฏิบัติการของโดรนทหารจะเกิดความผิดพลาดขึ้นได้ โดยเฉพาะเมื่อโดรนหลาย ๆ ลำ ออกทำงานด้วยกันและสื่อสารกันเอง อย่างเช่นการออกโจมตีร่วมกันเป็นกลุ่ม

Zachary Kallenborn

“การที่โดรนสื่อสารกันเองนั้น เสี่ยงที่จะเกิดความผิดพลาดแบบต่อเนื่องกัน อย่างเช่นลำหนึ่งเกิดทำงานผิดพลาดขึ้นมาก็จะแชร์ข้อมูลผิด ๆ นั้นไปให้อีกลำหนึ่ง”
จากแถลงการณ์ของแคลเล็นบอร์น

เราเข้าใกล้เหตุการณ์ในหนัง Terminator เข้าไปทุกทีแล้วครับ

อ้างอิง