OpenAI เข้ามาแทนที่ Anthropic ในการให้บริการ AI แก่ DoD
ประเด็นนี้สะท้อนความขัดแย้งระหว่างความปลอดภัยของ AI และความต้องการของรัฐบาลในการใช้เทคโนโลยีทางทหาร
สัปดาห์ที่ผ่านมา วงการเทคโนโลยีและความมั่นคงของสหรัฐฯ สั่นสะเทือนจากความขัดแย้งระหว่าง Anthropic ผู้พัฒนาโมเดล AI “Claude” กับ กระทรวงกลาโหมสหรัฐฯ หรือ Department of Defense (DoD) จนลุกลามกลายเป็นประเด็นระดับชาติว่า “ใครควรมีอำนาจควบคุม AI ที่ทรงพลังที่สุดในโลกในทางทหาร” บริษัทผู้พัฒนาหรือรัฐบาลที่สามารถใช้กฎหมายกดดันผู้พัฒนาเมื่อต้องการนำไปใช้งาน
ขณะเดียวกันรายงานจากสื่อหลายสำนัก ระบุว่า กองบัญชาการกลางของสหรัฐฯ (U.S. Central Command) ยังคงใช้ AI ของ Anthropic อยู่แม้ทรัมป์เพิ่งสั่งแบนไม่กี่ชั่วโมงก่อนหน้าในปฏิบัติการโจมตีอิหร่าน
โดยระบุว่าในช่วงที่สหรัฐฯ และอิสราเอลทำการโจมตีอิหร่าน Claude ถูกนำไปใช้ในด้านข่าวกรอง การเลือกเป้าหมาย และจำลองสนามรบ การใช้เครื่องมือ AI ในระดับนี้สะท้อนให้เห็นว่า ระบบ AI ถูกฝังอยู่เป็นส่วนสำคัญของการวางแผนปฏิบัติการทางทหารมากกว่าที่หลายคนคิด และไม่สามารถยุติการใช้งานได้ทันทีเพียงคำสั่งเดียว เพราะต้องมีการถอดออกจากระบบที่ซับซ้อนก่อน
เหตุการณ์นี้สะท้อนความตึงเครียดเชิงโครงสร้างระหว่าง ค่านิยมด้านความปลอดภัยของบริษัท AI ที่ไม่ต้องการให้โมเดลถูกใช้เพื่อการก่อความรุนแรงหรือสอดส่องโดยไม่มีมนุษย์ควบคุม และความต้องการของรัฐบาลและกองทัพที่ต้องการหาประโยชน์จากเทคโนโลยีที่ทันสมัยที่สุดเพื่อเพิ่มประสิทธิภาพทางยุทธศาสตร์
นำไปสู่คำถามใหญ่ของจุดสมดุลในยุคที่ AI กลายเป็นโครงสร้างพื้นฐานด้านความมั่นคง, ความปลอดภัยของมนุษยชาติ, สิทธิมนุษยชน และการควบคุมเทคโนโลยีแห่งอนาคต ใครควรกำหนดขอบเขตจริยธรรม ความขัดแย้งนี้อาจกลายเป็นแม่แบบใหม่ของความสัมพันธ์ระหว่างบิ๊กเทคกับกองทัพ จุดเริ่มต้นของสมการอำนาจใหม่ระหว่างอุตสาหกรรม AI กับรัฐบาลทั่วโลกในอนาคตหลังจากนี้