อ้างอิงจากรายงานพิเศษของ Axios กรมกลาโหมสหรัฐกำลังพิจารณายุติความร่วมมือกับ Anthropic เนื่องจากบริษัท AI นี้ยืนกรานไม่เปิดเผยข้อมูลในด้านการใช้งานทางทหารของโมเดล Claude โดยปฏิเสธการเปิดใช้งานการตรวจสอบขนาดใหญ่และอาวุธอัตโนมัติเต็มรูปแบบ ซึ่งเป็นสองประเด็นสำคัญที่ Anthropic ยืนหยัดไม่ยอมรับ ทั้งนี้ OpenAI, Google และ xAI ต่างก็ได้ตกลงตามข้อกำหนด “ทุกการใช้งานที่ถูกกฎหมาย” ของกองทัพสหรัฐ ทำให้ Anthropic กลายเป็นห้องปฏิบัติการ AI สี่แห่งที่เป็นกลุ่มเดียวที่ยังคงยืนหยัดอยู่
(ข้อมูลเบื้องหลัง: แผนการของ Elon Musk ในโครงการ “ฐานบนดวงจันทร์ Alpha” ที่จะสร้างโรงงาน AI บนดวงจันทร์และยิงออกไปยังระบบสุริยะ)
(ข้อมูลเสริม: ความตื่นตระหนกจาก AI และการว่างงาน! ผู้บริหารไมโครซอฟท์เตือนว่าแรงงานระดับขาวจะถูกแทนที่ด้วยอัตโนมัติภายใน 12-18 เดือนข้างหน้า)
สารบัญบทความ
อ้างอิงจาก Axios ที่อ้างคำพูดจากเจ้าหน้าที่ระดับสูงของรัฐบาล สหรัฐกำลังเร่งให้สี่ห้องปฏิบัติการ AI ชั้นนำ (OpenAI, Google, xAI, Anthropic) อนุญาตให้กองทัพใช้เครื่องมือของตนใน “ทุกการใช้งานที่ถูกกฎหมาย” ซึ่งครอบคลุมถึงการพัฒนาอาวุธ การรวบรวมข่าวกรอง และปฏิบัติการในสนามรบ ซึ่งเป็นพื้นที่ที่มีความอ่อนไหวที่สุด
คำขอนี้มีรากฐานมาจาก “บันทึกยุทธศาสตร์ปัญญาประดิษฐ์ของกระทรวงกลาโหม” ที่ออกเมื่อวันที่ 9 มกราคมปีนี้ ซึ่งระบุชัดเจนว่าจะบรรจุข้อกำหนด “ทุกการใช้งานที่ถูกกฎหมาย” ลงในสัญญาซื้อ AI ภายใน 180 วัน ซึ่งหมายความว่ามาตรฐานการใช้งาน AI ในทางทหารจะเทียบเท่ากับการใช้กำลังทางทหารทั่วไป โดยไม่จำเป็นต้องมี “การควบคุมโดยมนุษย์ที่มีความหมาย”
อย่างไรก็ตาม หลังจากการเจรจาที่ยากลำบากหลายเดือน Anthropic ยังไม่ยอมรับข้อกำหนดเหล่านี้ กองทัพสหรัฐจึงรู้สึก “เบื่อหน่าย” เจ้าหน้าที่คนนี้กล่าวว่า:
ทุกอย่างเป็นไปได้ รวมถึงการลดความสัมพันธ์กับ Anthropic หรือแม้แต่การยุติความร่วมมือทั้งหมด แต่ถ้าเราคิดว่านั่นคือสิ่งที่ถูกต้อง ก็ต้องหาคนที่เหมาะสมมาแทนที่พวกเขา
เมื่อเผชิญแรงกดดันจากกองทัพ Anthropic ยืนหยัดในสองเส้นทางสำคัญ:
เจ้าหน้าที่ระดับสูงยอมรับว่า ยังมีความคลุมเครือในเรื่องของการกำหนดว่าใช้งานในกรณีใดควรอยู่ในกลุ่มต้องห้าม และกรณีใดไม่ควร ซึ่งหากกองทัพจะเจรจาแต่ละกรณีเป็นรายกรณี หรือ Claude ปฏิเสธการใช้งานบางอย่างในทางปฏิบัติ ก็เป็นไปไม่ได้
น่าสนใจว่า ปีที่แล้ว Anthropic ได้ลงนามในสัญญาต้นแบบสองปี มูลค่าสูงสุด 2 พันล้านดอลลาร์ ซึ่ง Claude ก็กลายเป็นโมเดล AI เชิงพาณิชย์ตัวแรกที่ได้รับอนุญาตให้ใช้งานในเครือข่ายลับของกองทัพสหรัฐ สำหรับงานทดสอบอาวุธและการสื่อสารในสนามรบที่มีความอ่อนไหวสูง
สาเหตุของวิกฤตสัญญานี้ย้อนกลับไปยังเหตุการณ์เมื่อไม่นานมานี้ ตามรายงานของ Axios เมื่อวันที่ 13 กุมภาพันธ์ กองทัพสหรัฐใช้แพลตฟอร์มของ Palantir ในการบูรณาการ Claude สำหรับการจัดการข้อมูลข่าวกรองในระหว่างการโจมตีและจับกุม Nicolás Maduro อดีตประธานาธิบดีเวเนซุเอลา
รายงานระบุว่า เจ้าหน้าที่ระดับสูงของ Anthropic ได้ติดต่อกับ Palantir หลังทราบข่าวนี้ เพื่อสอบถามว่า Claude ถูกใช้ในปฏิบัติการดังกล่าวหรือไม่ โดยแสดงท่าทีไม่เห็นด้วย เนื่องจากการดำเนินการดังกล่าวเกี่ยวข้องกับอาวุธที่ไม่ใช่ระเบิด เช่น อาวุธเจาะทะลุแบบไม่ระเบิด
Claude ปฏิเสธการมีส่วนร่วมในปฏิบัติการนี้ ซึ่งสร้างความกังวลอย่างรุนแรงในกองทัพสหรัฐ
โฆษกของ Anthropic ก็ปฏิเสธอย่างเด็ดขาดว่าเคยมีการพูดคุยเกี่ยวกับการใช้งานทางทหารเฉพาะกิจและกับกระทรวงกลาโหม
ในทางตรงกันข้ามกับ Anthropic ซึ่งยืนหยัดในจุดยืนด้านความปลอดภัย บริษัท AI อีกสามแห่งแสดงความยืดหยุ่นมากกว่า:
อย่างน้อยหนึ่งในสามบริษัทนี้ได้ยอมรับข้อกำหนด “ทุกการใช้งานที่ถูกกฎหมาย” อย่างเต็มที่ ส่วนอีกสองรายก็แสดงความยืดหยุ่นมากกว่าที่ Anthropic ทำ ซึ่งทำให้ Anthropic กลายเป็นผู้เล่นเดียวที่ยังคงยืนหยัดในจุดยืนด้านความปลอดภัย แต่ก็เสี่ยงต่อการถูกผลักออกจากวงการ
ผลิตภัณฑ์ AI ในที่สุดก็มีเป้าหมายเพื่อรับใช้ชาติ และด้านการทหารเป็นแนวทางที่หลีกเลี่ยงไม่ได้