การกำกับดูแลAI อาจยากยิ่งกว่าควบคุมอาวุธนิวเคลียร์
การกำกับดูแล AI 'อาจยากยิ่งกว่า' ควบคุมอาวุธนิวเคลียร์ เมื่อรัฐ-ทุน ไม่สน 'เสียงค้าน' จากเชี่ยวชาญด้านความปลอดภัย
7-4-2026
สำนักข่าว Foreign Policy รายงานว่า ประวัติศาสตร์ด้านนิวเคลียร์แสดงให้เห็นถึงความสำคัญของการรักษาบรรดาผู้เคลือบแคลงสงสัย (Skeptics) ให้อยู่ร่วมในวงสนทนาเมื่อต้องขบคิดถึงเรื่องความปลอดภัย
ในขณะที่ ดาริโอ อโมเดอี (Dario Amodei) ซีอีโอของ Anthropic กำลังถกเถียงเรื่อง "เส้นแดง" (red lines) ของ AI รุ่น Claude อยู่ในวอชิงตัน ดี.ซี. ปรากฏว่า Claude ได้เข้าสู่สงครามไปเรียบร้อยแล้ว เพียงไม่กี่ชั่วโมงหลังจากกระทรวงกลาโหมสหรัฐฯ ยุติสัญญากับ Anthropic เจ้าหน้าที่สหรัฐฯ กลับนำ Claude ไปใช้ในปฏิบัติการโจมตีทางอากาศต่ออิหร่าน ซึ่งจนถึงปัจจุบันยังไม่มีความชัดเจนว่าถูกนำไปใช้ในลักษณะใด
เหตุการณ์นี้เป็นเพียงอาการเบื้องต้นของปัญหาที่ลึกซึ้งกว่านั้น เมื่อผู้เชี่ยวชาญด้านจริยธรรมและความปลอดภัยของ AI จำนวนมากเริ่มลาออกจากบริษัทชั้นนำ หากแนวโน้มนี้ยังดำเนินต่อไป อนาคตของ AI จะถูกกำหนดโดยปราศจากกลุ่มคนที่กังวลเรื่องการลดความเสี่ยงมากที่สุด
บทเรียนจากประวัติศาสตร์นิวเคลียร์: "นิกายนักบวช" และการกีดกันผู้เห็นต่าง
ประวัติศาสตร์นิวเคลียร์สอนให้เรารู้ว่า การรักษา "เสียงที่เห็นต่าง" ไว้ในห้องประชุมเป็นเรื่องสำคัญเพียงใด ในยุคสงครามเย็น นักวิทยาศาสตร์อย่าง เจ. โรเบิร์ต ออปเพนไฮเมอร์ (J. Robert Oppenheimer) หรือ ลีโอ ซิลาร์ด (Leo Szilard) พยายามเสนอให้มีการควบคุมนิวเคลียร์ในระดับสากล แต่กลับถูกกลุ่มที่ยอมรับแนวคิดความมั่นคงแห่งชาติแบบใหม่กีดกันออกไป
ผู้ที่ยอมรับแนวคิดนี้ เช่น เอ็ดเวิร์ด เทลเลอร์ (Edward Teller) กลายเป็นกลุ่มปัญญาชนชั้นสูงที่ถูกเรียกว่า "นิกายนักบวชนิวเคลียร์" (Nuclear Priesthood) พวกเขาสร้างภาษาเทคนิคที่ซับซ้อนและวางกลยุทธ์การทาสงครามนิวเคลียร์อยู่นอกสายตาของสาธารณชน ส่วนผู้ที่เห็นต่างถูกยึดสิทธิ์ในการเข้าถึงข้อมูลความลับและถูกลดบทบาทลง
แม้ว่าโลกจะรอดพ้นจากสงครามนิวเคลียร์มาได้ตั้งแต่ปี 1945 แต่นั่นอาจเป็นเพราะความโชคดีมากกว่าระบบที่สมบูรณ์แบบ ข้อมูลย้อนหลังเผยให้เห็นเหตุการณ์ "หวุดหวิด" หลายครั้งที่สงครามนิวเคลียร์เกือบจะเกิดขึ้นจากความผิดพลาดของระบบหรืออุบัติเหตุ
AI กับปัญหา "ระยะห่างทางจิตวิทยา"
เช่นเดียวกับอาวุธนิวเคลียร์ อันตรายร้ายแรงที่สุดของ AI ดูเหมือนจะเป็นเรื่องไกลตัว ยากที่จะจินตนาการ และมักถูกมองว่า "จะเกิดขึ้นที่อื่นหรือกับคนอื่น" นี่คือปัญหาของระยะห่างทางจิตวิทยาที่ทำให้สาธารณชนไม่ตื่นตัว และต้องพึ่งพา "กลุ่มนักบวชผู้เชี่ยวชาญ" ให้คอยเฝ้าระวังความเสี่ยงแทน
แต่ปัญหาจะเกิดขึ้นเมื่อผลประโยชน์ของกลุ่มผู้เชี่ยวชาญเริ่มสวนทางกับสาธารณชน เช่น การยอมลดมาตรฐานความปลอดภัยเพื่อแลกกับผลกำไรหรือชื่อเสียง แรงกดดันจากการแข่งขันในตลาดและภูมิรัฐศาสตร์ (โดยเฉพาะการแข่งกับจีน) กำลังบีบให้บริษัท AI เลือกที่จะสร้างโมเดลที่ใหญ่ขึ้นและเร็วขึ้น โดยละเลยเสียงเตือนเรื่องความปลอดภัย
ความยากของการควบคุม AI เมื่อเทียบกับนิวเคลียร์และอุตสาหกรรมการบิน
การกำกับดูแล AI อาจยากกว่านิวเคลียร์ด้วยเหตุผลหลายประการ:
ขอบเขตการใช้งาน: อาวุธนิวเคลียร์คือระเบิดขนาดใหญ่ที่มีบริบทการใช้จำกัด แต่ AI มีบริบทการใช้ที่กว้างขวางเหมือน "ไฟฟ้า" หรือ "น้ำ"
ความโปร่งใส: เอาต์พุตของ AI เปรียบเสมือน "กล่องดำ" (Black box) ที่ยากจะตรวจสอบที่มาของความผิดพลาด
ความเร็วของการขยายตัว: อุตสาหกรรมการบินใช้เวลาหลายทศวรรษในการเรียนรู้จากอุบัติเหตุเล็กๆ ก่อนจะขยายตัว แต่ AI กำลังถูกนำไปใช้อย่างรวดเร็วในทุกมิติของชีวิต ตั้งแต่การให้คำปรึกษาทางการแพทย์ไปจนถึงระบบอาวุธอัตโนมัติ
สถานการณ์ปัจจุบันภายใต้รัฐบาลทรัมป์
ในปี 2025 ทำเนียบขาวภายใต้การนำของประธานาธิบดี โดนัลด์ ทรัมป์ ได้ยกเลิกคำสั่งบริหารด้าน AI ของรัฐบาลไบเดน และปรับลดบทบาทของสถาบันความปลอดภัย AI จากการกำกับดูแลความปลอดภัยในวงกว้าง ให้เหลือเพียงเรื่องความมั่นคงแห่งชาติและการแข่งขัน โดยถึงขั้นตัดคำว่า "ความปลอดภัย" (Safety) ออกจากชื่อสถาบัน
นอกจากนี้ ยังมีความเหลื่อมล้ำในการกำกับดูแลระหว่างสหรัฐฯ และสหภาพยุโรป (EU AI Act) ซึ่งอาจส่งผลให้เงินลงทุนในด้าน AI ย้ายถิ่นฐานไปยังที่ที่มีการควบคุมน้อยกว่า ยิ่งทำให้กลุ่มผู้เชี่ยวชาญ AI ออกห่างจากผลประโยชน์ของสาธารณชนมากขึ้น
ทางออกที่อาจต้องแลกด้วย "วิกฤต"
สิ่งที่น่ากังวลคือ ประวัติศาสตร์มักชี้ให้เห็นว่าการกำกับดูแลที่ครอบคลุมมักต้องการ "วิกฤตที่เป็นตัวจุดชนวน" (Triggering crisis) เช่น อุบัติเหตุเครื่องบินชนกันกลางอากาศที่นำไปสู่การก่อตั้ง FAA เพื่อทำให้สังคมตระหนักว่าอันตรายนั้นอยู่ใกล้ตัว หากไม่มีวิกฤตที่ชัดเจนและรุนแรงพอ แรงกดดันที่จะให้ความสำคัญกับ "ความเร็ว" มากกว่า "ความปลอดภัย" ก็จะยังคงอยู่ต่อไป
ทางเลือกสำหรับบริษัท AI ในตอนนี้คือการพยายามรักษา "เสียงที่เห็นต่าง" ไว้ในองค์กร ไม่ใช่มองว่าเป็นภัยคุกคามภายใน เพื่อสร้างผลิตภัณฑ์ที่ปลอดภัยและรักษาชื่อเสียงในระยะยาว มิเช่นนั้นโลกอาจต้องเผชิญกับการเดิมพันครั้งใหญ่ที่ไม่ต่างจากการถือครองอาวุธนิวเคลียร์ในอดีต
---
IMCT NEWS
ที่มา https://foreignpolicy.com/2026/04/02/ai-artifical-intelligence-claude-anthropic-nuclear-weapons-apololypse/