ทำเนียบขาวเปิดเผยต่อ Anthropic! เปิดใช้งาน Claude สำหรับการทหารอย่างเต็มรูปแบบ "ไม่เช่นนั้นจะยกเลิกสัญญาและให้ออก"

動區BlockTempo

อ้างอิงจากรายงานพิเศษของ Axios กรมกลาโหมสหรัฐกำลังพิจารณายุติความร่วมมือกับ Anthropic เนื่องจากบริษัท AI นี้ยืนกรานไม่เปิดเผยข้อมูลในด้านการใช้งานทางทหารของโมเดล Claude โดยปฏิเสธการเปิดใช้งานการตรวจสอบขนาดใหญ่และอาวุธอัตโนมัติเต็มรูปแบบ ซึ่งเป็นสองประเด็นสำคัญที่ Anthropic ยืนหยัดไม่ยอมรับ ทั้งนี้ OpenAI, Google และ xAI ต่างก็ได้ตกลงตามข้อกำหนด “ทุกการใช้งานที่ถูกกฎหมาย” ของกองทัพสหรัฐ ทำให้ Anthropic กลายเป็นห้องปฏิบัติการ AI สี่แห่งที่เป็นกลุ่มเดียวที่ยังคงยืนหยัดอยู่

(ข้อมูลเบื้องหลัง: แผนการของ Elon Musk ในโครงการ “ฐานบนดวงจันทร์ Alpha” ที่จะสร้างโรงงาน AI บนดวงจันทร์และยิงออกไปยังระบบสุริยะ)

(ข้อมูลเสริม: ความตื่นตระหนกจาก AI และการว่างงาน! ผู้บริหารไมโครซอฟท์เตือนว่าแรงงานระดับขาวจะถูกแทนที่ด้วยอัตโนมัติภายใน 12-18 เดือนข้างหน้า)

สารบัญบทความ

  • สองเส้นแดงของ Anthropic: ห้ามตรวจสอบขนาดใหญ่, ห้ามอาวุธอัตโนมัติ
  • การโจมตีของ Maduro จุดชนวนความขัดแย้ง
  • อีกสามบริษัทยักษ์ใหญ่ “ไม่มีข้อคัดค้าน”

อ้างอิงจาก Axios ที่อ้างคำพูดจากเจ้าหน้าที่ระดับสูงของรัฐบาล สหรัฐกำลังเร่งให้สี่ห้องปฏิบัติการ AI ชั้นนำ (OpenAI, Google, xAI, Anthropic) อนุญาตให้กองทัพใช้เครื่องมือของตนใน “ทุกการใช้งานที่ถูกกฎหมาย” ซึ่งครอบคลุมถึงการพัฒนาอาวุธ การรวบรวมข่าวกรอง และปฏิบัติการในสนามรบ ซึ่งเป็นพื้นที่ที่มีความอ่อนไหวที่สุด

คำขอนี้มีรากฐานมาจาก “บันทึกยุทธศาสตร์ปัญญาประดิษฐ์ของกระทรวงกลาโหม” ที่ออกเมื่อวันที่ 9 มกราคมปีนี้ ซึ่งระบุชัดเจนว่าจะบรรจุข้อกำหนด “ทุกการใช้งานที่ถูกกฎหมาย” ลงในสัญญาซื้อ AI ภายใน 180 วัน ซึ่งหมายความว่ามาตรฐานการใช้งาน AI ในทางทหารจะเทียบเท่ากับการใช้กำลังทางทหารทั่วไป โดยไม่จำเป็นต้องมี “การควบคุมโดยมนุษย์ที่มีความหมาย”

อย่างไรก็ตาม หลังจากการเจรจาที่ยากลำบากหลายเดือน Anthropic ยังไม่ยอมรับข้อกำหนดเหล่านี้ กองทัพสหรัฐจึงรู้สึก “เบื่อหน่าย” เจ้าหน้าที่คนนี้กล่าวว่า:

ทุกอย่างเป็นไปได้ รวมถึงการลดความสัมพันธ์กับ Anthropic หรือแม้แต่การยุติความร่วมมือทั้งหมด แต่ถ้าเราคิดว่านั่นคือสิ่งที่ถูกต้อง ก็ต้องหาคนที่เหมาะสมมาแทนที่พวกเขา

สองเส้นแดงของ Anthropic: ห้ามตรวจสอบขนาดใหญ่, ห้ามอาวุธอัตโนมัติ

เมื่อเผชิญแรงกดดันจากกองทัพ Anthropic ยืนหยัดในสองเส้นทางสำคัญ:

  • ห้ามการตรวจสอบข้อมูลขนาดใหญ่ของประชาชนในสหรัฐ
  • ห้ามระบบอาวุธอัตโนมัติเต็มรูปแบบ (เช่น อาวุธที่ไม่มีการแทรกแซงของมนุษย์)

เจ้าหน้าที่ระดับสูงยอมรับว่า ยังมีความคลุมเครือในเรื่องของการกำหนดว่าใช้งานในกรณีใดควรอยู่ในกลุ่มต้องห้าม และกรณีใดไม่ควร ซึ่งหากกองทัพจะเจรจาแต่ละกรณีเป็นรายกรณี หรือ Claude ปฏิเสธการใช้งานบางอย่างในทางปฏิบัติ ก็เป็นไปไม่ได้

น่าสนใจว่า ปีที่แล้ว Anthropic ได้ลงนามในสัญญาต้นแบบสองปี มูลค่าสูงสุด 2 พันล้านดอลลาร์ ซึ่ง Claude ก็กลายเป็นโมเดล AI เชิงพาณิชย์ตัวแรกที่ได้รับอนุญาตให้ใช้งานในเครือข่ายลับของกองทัพสหรัฐ สำหรับงานทดสอบอาวุธและการสื่อสารในสนามรบที่มีความอ่อนไหวสูง

การโจมตีของ Maduro จุดชนวนความขัดแย้ง

สาเหตุของวิกฤตสัญญานี้ย้อนกลับไปยังเหตุการณ์เมื่อไม่นานมานี้ ตามรายงานของ Axios เมื่อวันที่ 13 กุมภาพันธ์ กองทัพสหรัฐใช้แพลตฟอร์มของ Palantir ในการบูรณาการ Claude สำหรับการจัดการข้อมูลข่าวกรองในระหว่างการโจมตีและจับกุม Nicolás Maduro อดีตประธานาธิบดีเวเนซุเอลา

รายงานระบุว่า เจ้าหน้าที่ระดับสูงของ Anthropic ได้ติดต่อกับ Palantir หลังทราบข่าวนี้ เพื่อสอบถามว่า Claude ถูกใช้ในปฏิบัติการดังกล่าวหรือไม่ โดยแสดงท่าทีไม่เห็นด้วย เนื่องจากการดำเนินการดังกล่าวเกี่ยวข้องกับอาวุธที่ไม่ใช่ระเบิด เช่น อาวุธเจาะทะลุแบบไม่ระเบิด

Claude ปฏิเสธการมีส่วนร่วมในปฏิบัติการนี้ ซึ่งสร้างความกังวลอย่างรุนแรงในกองทัพสหรัฐ

โฆษกของ Anthropic ก็ปฏิเสธอย่างเด็ดขาดว่าเคยมีการพูดคุยเกี่ยวกับการใช้งานทางทหารเฉพาะกิจและกับกระทรวงกลาโหม

อีกสามบริษัทยักษ์ใหญ่ “ไม่มีข้อคัดค้าน”

ในทางตรงกันข้ามกับ Anthropic ซึ่งยืนหยัดในจุดยืนด้านความปลอดภัย บริษัท AI อีกสามแห่งแสดงความยืดหยุ่นมากกว่า:

  • OpenAI (ChatGPT) ยินยอมให้ปลดล็อกมาตรการความปลอดภัยสำหรับการให้บริการแก่กองทัพสหรัฐ
  • Google (Gemini) แสดงท่าทีสนับสนุนและพร้อมร่วมมือ
  • xAI (Grok) ก็แสดงความประสงค์ร่วมมือเช่นกัน

อย่างน้อยหนึ่งในสามบริษัทนี้ได้ยอมรับข้อกำหนด “ทุกการใช้งานที่ถูกกฎหมาย” อย่างเต็มที่ ส่วนอีกสองรายก็แสดงความยืดหยุ่นมากกว่าที่ Anthropic ทำ ซึ่งทำให้ Anthropic กลายเป็นผู้เล่นเดียวที่ยังคงยืนหยัดในจุดยืนด้านความปลอดภัย แต่ก็เสี่ยงต่อการถูกผลักออกจากวงการ

ผลิตภัณฑ์ AI ในที่สุดก็มีเป้าหมายเพื่อรับใช้ชาติ และด้านการทหารเป็นแนวทางที่หลีกเลี่ยงไม่ได้

news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น