จริยธรรมบิ๊กเทค Anthropic vs กองทัพ จากเวเนฯ ถึงอิหร่าน AI ถูกบีบใช้ทำสงคราม

จริยธรรมบิ๊กเทค Anthropic vs กองทัพ จากเวเนฯ ถึงอิหร่าน AI ถูกบีบใช้ทำสงคราม

จริยธรรมบิ๊กเทค Anthropic vs กองทัพ จากเวเนฯ ถึงอิหร่าน AI ถูกบีบใช้ทำสงคราม

Date Time: 2 มี.ค. 2569 11:52 น.

Video

More

ปี 2026 ทองคำมาวิน? หุ้นไทยปีนี้ยากแล้ว ปีหน้ายากกว่า?| Thairath Money Night Stand EP.30

ปี 2026 ทองคำมาวิน? หุ้นไทยปีนี้ยากแล้ว ปีหน้ายากกว่า?| Thairath Money Night Stand EP.30

“Summary“

Anthropic ปฏิเสธการใช้ AI Claude ในการสอดส่องประชาชนและอาวุธอัตโนมัติ ทำให้เกิดความขัดแย้งกับ DoD

  • DoD ขู่ใช้กฎหมายบังคับให้ Anthropic ยอมให้ใช้ AI ในทุกกรณีที่ถูกกฎหมาย
  • ทรัมป์สั่งยุติการใช้เทคโนโลยี Anthropic และโจมตีบริษัท
  • OpenAI เข้ามาแทนที่ Anthropic ในการให้บริการ AI แก่ DoD
  • ประเด็นนี้สะท้อนความขัดแย้งระหว่างความปลอดภัยของ AI และความต้องการของรัฐบาลในการใช้เทคโนโลยีทางทหาร

สัปดาห์ที่ผ่านมา วงการเทคโนโลยีและความมั่นคงของสหรัฐฯ สั่นสะเทือนจากความขัดแย้งระหว่าง Anthropic ผู้พัฒนาโมเดล AI “Claude” กับ กระทรวงกลาโหมสหรัฐฯ หรือ Department of Defense (DoD) จนลุกลามกลายเป็นประเด็นระดับชาติว่า “ใครควรมีอำนาจควบคุม AI ที่ทรงพลังที่สุดในโลกในทางทหาร” บริษัทผู้พัฒนาหรือรัฐบาลที่สามารถใช้กฎหมายกดดันผู้พัฒนาเมื่อต้องการนำไปใช้งาน

สรุปไทม์ไลน์เหตุการณ์ที่เกิดขึ้น

ฤดูร้อน 2025 จุดเริ่มต้นความร่วมมือ

  • Anthropic พร้อมบริษัท AI รายใหญ่อื่น ๆ ได้แก่ Google, OpenAI และ xAI ได้รับสัญญาจ้างจากกระทรวงกลาโหม มูลค่าสูงสุดบริษัทละ 200 ล้านดอลลาร์สหรัฐ
  • โดย Anthropic ถือเป็นบริษัทเทคโนโลยีแห่งแรกที่ได้รับอนุมัติให้สามารถนำโมเดล AI ของตนอย่าง “Claude” เข้าไปใช้งานในเครือข่ายทางทหารระดับลับสุดยอด (Classified military networks) ของเพนตากอน การเข้าถึงของกองทัพเกิดขึ้นผ่านบริษัทพาร์ทเนอร์ด้านข้อมูลและวิเคราะห์ข่าวกรองอย่าง Palantir

มกราคม 2026 ปฏิบัติการจับ Nicolás Maduro

  • กองทัพสหรัฐฯ นำโมเดล Claude ไปใช้งานในปฏิบัติการบุกจับกุมตัวอดีตประธานาธิบดีเวเนซุเอลา Nicolás Maduro ที่กรุงการากัส (ดำเนินการผ่านสัญญาที่มี กับ Palantir)
  • Claude ถูกใช้เพื่อวิเคราะห์ข่าวกรอง สนับสนุนการเลือกเป้าหมาย และจำลองสถานการณ์ปฏิบัติการ
  • หลังเหตุการณ์นี้ Anthropic แสดงความกังวลทันที โดยย้ำ “เส้นแดง” ของบริษัทที่ห้ามนำ AI ไปใช้เพื่อ 2 ประการสำคัญ นั่นคือ ห้ามใช้ AI กับอาวุธอัตโนมัติเต็มรูปแบบ (Fully autonomous weapons) ที่สามารถตัดสินใจโจมตีเป้าหมายได้โดยไม่มีมนุษย์ควบคุม และสองคือ ห้ามใช้เพื่อสอดแนมประชาชนในประเทศแบบวงกว้าง (Mass domestic surveillance)

กุมภาพันธ์ 2026 ความตึงเครียดมาถึงจุดเดือด

  • (24 ก.พ.) Pete Hegseth รัฐมนตรีว่าการกระทรวงกลาโหม เรียกตัว Dario Amodei ซีอีโอของ Anthropic เข้าพบที่เพนตากอน
  • Amodei ชี้แจงถึงข้อจำกัดของบริษัท แต่เจ้าหน้าที่กลาโหมโต้แย้งว่า ความขัดแย้งที่เกิดขึ้นนี้ไม่ได้เกี่ยวกับการใช้อาวุธอัตโนมัติหรือการสอดแนมประชาชนเลย
  • เพนตากอนโต้กลับว่า กระทรวงไม่ควรถูกจำกัดด้วย “กฎของผู้ขาย” โดยมีจุดยืนให้ Anthropic ต้องยอมให้กองทัพใช้ AI ใน “ทุกกรณีที่ถูกกฎหมาย” (All lawful use cases) โดยมีจุดยืนว่าบริษัทไม่มีสิทธิ์กำหนดว่ากองทัพจะใช้อย่างไร
  • ขีดเส้นตายให้ Anthropic ต้องยินยอมให้กองทัพใช้เทคโนโลยี AI ในแอปพลิเคชันทางทหารทั้งหมดภายในช่วงเย็นวันศุกร์ (27 ก.พ.) ที่ผ่านมา โดยมีเงื่อนไขว่าหาก Anthropic ไม่ยอมปฏิบัติตามข้อเรียกร้อง กระทรวงกลาโหมจะใช้มาตรการขั้นเด็ดขาด ได้แก่ การงัดใช้กฎหมายการผลิตเพื่อการป้องกันประเทศ (Defense Production Act) เพื่อบังคับให้ผู้บริหารของ Anthropic ต้องยอมให้เพนตากอนใช้งาน AI อย่างไร้ข้อจำกัด โดยอ้างความจำเป็นด้านความมั่นคงของชาติ และ ถอดถอนและขึ้นบัญชีดำ Hegseth ขู่ว่าจะแบนและถอด Anthropic ออกจากห่วงโซ่อุปทานและขึ้นบัญชีว่าเป็นบริษัทเป็น “ภัยต่อห่วงโซ่อุปทานที่กระทบต่อความมั่นคงของชาติ” (Supply chain risk) คำที่ปกติใช้กับบริษัทจากประเทศคู่แข่ง
  • ในวันเดียวกันนั้น ประธานาธิบดีโดนัลด์ ทรัมป์ สั่งให้หน่วยงานรัฐบาลกลางทั้งหมด “ยุติการใช้งาน” เทคโนโลยีของ Anthropic ทันที ด้านผู้รับเหมาของกระทรวงกลาโหมสหรัฐฯ ต้องรับรองว่าไม่ได้ใช้โมเดลของ Anthropic อีกต่อไป
  • ทรัมป์โจมตี Anthropic ทางโซเชียลว่าเป็น “บริษัท AI ซ้ายจัดที่ไม่มีความเข้าใจโลกความจริง”
  • Hegseth กล่าวโทษ Anthropic ว่าแสดง “ความหยิ่งยโสและการทรยศ” ต่อกองทัพ
  • ล่าสุดแอปพลิเคชัน Claude ของ Anthropic ทะยานขึ้นสู่อันดับ 1 บนชาร์ตแอปฟรียอดนิยมของสหรัฐฯ ใน Apple ช่วงปลายวันเสาร์ที่ผ่านมา แซงหน้า ChatGPT, Gemini หลังปฏิเสธไม่ให้โมเดลของตนถูกใช้เพื่อการสอดส่องประชาชนในวงกว้างหรือพัฒนาอาวุธอัตโนมัติ 

OpenAI เข้ารับไม้ต่อ Claude ยังคงถูกใช้ในอิหร่าน

อย่างไรก็ตามไม่กี่ชั่วโมงหลัง Anthropic ถูกตัดออกก็มีรายงานว่า OpenAI ประกาศบรรลุข้อตกลงกับกระทรวงกลาโหมสหรัฐฯ โดยซีอีโอ Sam Altman ระบุว่า โมเดลของบริษัทจะถูกใช้งานต่อไปในเครือข่ายทางทหารระดับลับสุดยอดของกระทรวงแทน โดยย้ำว่า OpenAI ยังคงมี “เส้นแดง” เหมือน Anthropic ได้แก่ ห้ามใช้เพื่อสอดส่องประชาชนในวงกว้างและต้องมีความรับผิดชอบของมนุษย์ในการใช้กำลังร้ายแรง

ขณะเดียวกันรายงานจากสื่อหลายสำนัก ระบุว่า กองบัญชาการกลางของสหรัฐฯ (U.S. Central Command) ยังคงใช้ AI ของ Anthropic อยู่แม้ทรัมป์เพิ่งสั่งแบนไม่กี่ชั่วโมงก่อนหน้าในปฏิบัติการโจมตีอิหร่าน

โดยระบุว่าในช่วงที่สหรัฐฯ และอิสราเอลทำการโจมตีอิหร่าน Claude ถูกนำไปใช้ในด้านข่าวกรอง การเลือกเป้าหมาย และจำลองสนามรบ การใช้เครื่องมือ AI ในระดับนี้สะท้อนให้เห็นว่า ระบบ AI ถูกฝังอยู่เป็นส่วนสำคัญของการวางแผนปฏิบัติการทางทหารมากกว่าที่หลายคนคิด และไม่สามารถยุติการใช้งานได้ทันทีเพียงคำสั่งเดียว เพราะต้องมีการถอดออกจากระบบที่ซับซ้อนก่อน

จริยกรรมการใช้เทคโนโลยีเพื่อความมั่นคง จากนี้จะเกิดอะไรขึ้นต่อ ? 

ประเด็นดังกล่าวถูกวิพากษ์วิจารณ์ถึงจริยธรรมในการใช้เทคโนโลยีเป็นวงกว้าง จากมุมมองของ Anthropic ที่เคยระบุไว้ชัดเจนว่า AI แตกต่างจากอาวุธหรือเทคโนโลยีทางทหารแบบดั้งเดิม เพราะมีความสามารถเรียนรู้ วิเคราะห์ และตัดสินใจในระดับที่อาจสร้างผลกระทบวงกว้างและรวดเร็ว

Anthropic วางตัวเป็นบริษัท AI ที่ยึดหลักความปลอดภัยและจริยธรรม ส่วนรัฐบาลทรัมป์เดินหน้าแนวทางเร่งพัฒนา AI ทางทหารแบบทุ่มสรรพกำลังทุกวิถีทาง แนวทางของกระทรวงกลาโหมที่เคยกล่าวไว้ในปี 2023 ระบุว่า ระบบ AI สามารถเลือกและโจมตีเป้าหมายได้โดยไม่ต้องมีมนุษย์แทรกแซงโดยตรง หากผ่านการตรวจสอบตามขั้นตอน จุดนี้เองทำให้ Anthropic กังวลว่า หากโมเดลของตนถูกนำไปใช้ในระบบลับทางทหาร สาธารณชนอาจไม่รับรู้จนกว่าจะเกิดขึ้นจริง

บริษัทไม่ได้ปฏิเสธการใช้งานด้านความมั่นคงโดยสิ้นเชิง แต่เห็นว่าโมเดลในปัจจุบันยังไม่พร้อมพอสำหรับภารกิจที่มีเดิมพันชีวิตสูง เช่น การตัดสินใจโจมตีเป้าหมายแบบเสี้ยววินาที และอีกประเด็นสำคัญ คือ การใช้ AI ในการเฝ้าระวังข้อมูลประชาชน ซึ่งแม้กฎหมายปัจจุบันเปิดช่องให้มีการเก็บข้อมูลบางประเภท แต่ AI สามารถยกระดับเป็นการวิเคราะห์เชิงพฤติกรรมแบบต่อเนื่อง การจับแพตเทิร์นข้ามฐานข้อมูล และการประเมินความเสี่ยงแบบอัตโนมัติในวงกว้าง

หลายฝ่ายตั้งคำถามการตัดสินใจของกระทรวงกลาโหมสหรัฐฯ ว่าทำไมถึงยอมรับเงื่อนไขของ OpenAI แต่ไม่ยอมรับของ Anthropic ขณะที่เจ้าหน้าที่รัฐบางรายก่อนหน้านี้วิจารณ์ว่า Anthropic กังวลเรื่องความปลอดภัยมากเกินไป

นี่ไม่ใช่ความขัดแย้งที่ฝ่ายใดจะถอนตัวได้ง่าย ๆ หาก Anthropic ถูกตัดขาดจากตลาดภาครัฐอย่างถาวร อาจกระทบธุรกิจอย่างรุนแรง แต่หากกระทรวงกลาโหมสหรัฐฯ สูญเสียการเข้าถึงโมเดลที่ล้ำหน้าที่สุดก็อาจเกิดช่องว่างด้านความมั่นคงระหว่างรอผู้เล่นรายอื่นพัฒนาเทคโนโลยีตามทัน

เหตุการณ์นี้สะท้อนความตึงเครียดเชิงโครงสร้างระหว่าง ค่านิยมด้านความปลอดภัยของบริษัท AI ที่ไม่ต้องการให้โมเดลถูกใช้เพื่อการก่อความรุนแรงหรือสอดส่องโดยไม่มีมนุษย์ควบคุม และความต้องการของรัฐบาลและกองทัพที่ต้องการหาประโยชน์จากเทคโนโลยีที่ทันสมัยที่สุดเพื่อเพิ่มประสิทธิภาพทางยุทธศาสตร์

นำไปสู่คำถามใหญ่ของจุดสมดุลในยุคที่ AI กลายเป็นโครงสร้างพื้นฐานด้านความมั่นคง, ความปลอดภัยของมนุษยชาติ, สิทธิมนุษยชน และการควบคุมเทคโนโลยีแห่งอนาคต ใครควรกำหนดขอบเขตจริยธรรม ความขัดแย้งนี้อาจกลายเป็นแม่แบบใหม่ของความสัมพันธ์ระหว่างบิ๊กเทคกับกองทัพ จุดเริ่มต้นของสมการอำนาจใหม่ระหว่างอุตสาหกรรม AI กับรัฐบาลทั่วโลกในอนาคตหลังจากนี้

Leave a comment