Tài sản tuân thủ AI, Quantum đang 「đánh giá lại」

Bài viết: Trương Phong

Hiện nay, trí tuệ nhân tạo đang thâm nhập sâu sắc hơn bao giờ hết vào sản xuất và đời sống xã hội, và hệ thống an toàn cùng quản trị của nó là nền tảng của thời đại số. Tuy nhiên, một cuộc cách mạng về sức mạnh tính toán bắt nguồn từ các nguyên lý vật lý—điện toán lượng tử—đang lặng lẽ tiến sát. Lực lượng tiềm tàng có tính lật đổ của nó khiến các rào chắn an toàn hiện hữu và khung quản trị đứng trước những câu hỏi nghiêm túc. Điện toán lượng tử có lật đổ hệ thống an toàn và quản trị AI hiện tại không? Đây không chỉ là một vấn đề kỹ thuật, mà còn là một thách thức mang tính toàn cục đối với trật tự xã hội kỹ thuật số trong tương lai. Khi bước nhảy về năng lực tính toán gặp sự chậm trễ của quy tắc, chúng ta phải chuẩn bị thế nào cho “Q-Day”?

  1. Điện toán lượng tử đe dọa như thế nào các thuật toán mã hóa bất đối xứng đang được sử dụng rộng rãi?

An toàn của các hệ thống AI hiện tại, từ truyền mô hình, lưu trữ dữ liệu đến xác thực danh tính, phụ thuộc rất nhiều vào các thuật toán mã hóa bất đối xứng như RSA và ECC (mã hóa đường cong elliptic). Mức độ an toàn của các thuật toán này dựa trên “độ phức tạp tính toán” của các bài toán toán học khó khăn như “phân tích số lớn” hoặc “logarit rời rạc”, tức là máy tính cổ điển không thể giải các bài toán đó trong một khoảng thời gian chấp nhận được.

Tuy nhiên, điện toán lượng tử mang lại sự chuyển đổi căn bản về mô hình. Các thuật toán lượng tử như thuật toán Shor về mặt lý thuyết có thể giảm thời gian giải các bài toán khó này từ mức hàm mũ xuống mức đa thức. Một bài báo đánh giá cho thấy, bao gồm các thuật toán lượng tử mới nhất như thuật toán Regev và các phần mở rộng của nó, đang liên tục tối ưu hiệu suất phá mã đối với mật mã bất đối xứng. Điều này có nghĩa là, một khi máy tính lượng tử vạn năng đủ lớn (thường là khi sở hữu hàng triệu qubit ổn định) ra đời, “cái khóa” hiện đang bảo vệ liên lạc Internet, chữ ký số và dữ liệu mã hóa có thể sẽ bị mở “trong nháy mắt”.

Mối đe dọa này không hề xa vời. Các nghiên cứu của cộng đồng Zhiyuan cảnh báo rằng đây là một mối đe dọa “đang diễn ra ngay lúc này”: kẻ tấn công có thể bắt đầu ngay việc chặn và lưu trữ dữ liệu liên lạc đã được mã hóa (bao gồm dữ liệu huấn luyện AI, tham số mô hình, v.v.), chờ đến khi máy tính lượng tử trong tương lai trưởng thành rồi mới giải mã. Chiến lược “chặn trước, giải mã sau” khiến mọi thông tin có giá trị cao cần bảo mật lâu dài, bao gồm bí mật quốc gia, bằng sáng chế thương mại và dữ liệu quyền riêng tư cá nhân, đều bị đặt trước rủi ro trong tương lai. Do đó, mối đe dọa của điện toán lượng tử đối với mã hóa bất đối xứng mang tính nền tảng và hệ thống, trực tiếp làm lung lay nền móng của hệ thống an toàn AI hiện nay và thậm chí của cả thế giới số.

  1. Trước điện toán lượng tử, việc huấn luyện mô hình AI và bảo vệ quyền riêng tư dữ liệu phải đối mặt với những thách thức mới nào?

Sự phát triển của AI phụ thuộc vào việc nạp lượng lớn dữ liệu và huấn luyện các mô hình phức tạp; bản thân quá trình này đã đầy rẫy các thách thức về quyền riêng tư và an toàn. Khi có sự tham gia của điện toán lượng tử, các thách thức này trở nên sắc bén và phức tạp hơn.

Trước hết, tính bảo mật lâu dài của vòng đời dữ liệu sẽ không còn tồn tại. Như đã nói ở trên, các tập dữ liệu huấn luyện AI đang được mã hóa lưu trữ trên đám mây hoặc trong quá trình truyền có thể bị lộ hoàn toàn do giải mã lượng tử trong tương lai. Bạch thư Chiến lược di cư kháng lượng tử toàn cầu của Đại học Xi’an Jiaotong-Liverpool nêu rõ rằng các đối thủ trên toàn cầu đang có tổ chức thực hiện chiến lược “thu hoạch dữ liệu” này, kiên nhẫn chờ đến ngày “Q-Day” (ngày điện toán lượng tử được ứng dụng thực tiễn). Điều này tạo thành mối đe dọa từ gốc đối với các mô hình AI dựa trên dữ liệu nhạy cảm như hồ sơ y tế, thông tin tài chính và đặc điểm sinh trắc học để huấn luyện.

Thứ hai, các công nghệ tính toán riêng tư như học liên kết (federated learning) phải đối mặt với những bài toán thử thách mới. Học liên kết bảo vệ dữ liệu gốc bằng cách huấn luyện mô hình tại chỗ và chỉ tương tác để cập nhật các tham số mô hình. Tuy nhiên, thông tin về gradient hoặc các cập nhật tham số trong chính các tương tác này cũng được mã hóa để truyền. Nếu lớp mã hóa nền bị phá vỡ bởi điện toán lượng tử, kẻ tấn công có thể suy ngược để suy luận ra các đặc trưng dữ liệu gốc của các bên tham gia, khiến cơ chế bảo vệ quyền riêng tư trở nên hầu như vô hiệu.

Cuối cùng, mức độ khó của việc đánh cắp mô hình và bảo vệ quyền sở hữu trí tuệ tăng lên đáng kể. Mô hình AI đã được huấn luyện trưởng thành là tài sản cốt lõi của doanh nghiệp. Hiện nay, trọng số mô hình và kiến trúc thường được phân phối và triển khai thông qua mã hóa. Điện toán lượng tử có thể khiến các biện pháp bảo vệ này trở nên vô hiệu, dẫn đến mô hình bị sao chép dễ dàng, bị đảo ngược kỹ thuật hoặc bị can thiệp, gây ra các vi phạm quyền sở hữu trí tuệ và các lỗ hổng an toàn nghiêm trọng. Viện Nghiên cứu Thông tin và Truyền thông Trung Quốc trong “Sách xanh quản trị AI” nhấn mạnh rằng quản trị trí tuệ nhân tạo cần đối phó với các rủi ro như lạm dụng công nghệ, an toàn dữ liệu, và rõ ràng điện toán lượng tử sẽ khuếch đại lực phá hoại của những rủi ro này.

  1. Sự phát triển của máy học lượng tử sẽ ảnh hưởng thế nào đến khung an toàn AI và thẩm định đạo đức?

Sự kết hợp giữa điện toán lượng tử và AI—máy học lượng tử (QML)—gợi mở một bước đột phá về hiệu năng trong vòng mới. Nhưng đồng thời, nó cũng mang lại những vấn đề an toàn và đạo đức hoàn toàn mới, chưa từng có, gây tác động đối với khung thẩm định hiện hữu.

Ở tầng an toàn, QML có thể tạo ra các công cụ tấn công mạnh mẽ hơn. Ví dụ, thuật toán lượng tử có thể tăng tốc đáng kể việc tạo ra các mẫu đối kháng, tạo ra những đòn tấn công ẩn giấu hơn và có sức phá hoại mạnh hơn, khiến hệ thống phòng thủ an toàn AI hiện dựa trên máy tính cổ điển (như huấn luyện đối kháng, phát hiện bất thường) nhanh chóng trở nên lỗi thời. Một số phân tích gọi “lượng tử + AI” là chiến trường sinh tử tiếp theo của an ninh mạng, chỉ ra rằng cần phải hoàn thiện sớm các khung quản lý liên quan.

Ở tầng đạo đức, đặc tính “hộp đen” của QML có thể còn sâu sắc và khó hiểu hơn so với AI cổ điển. Quá trình ra quyết định của nó dựa trên chồng chập lượng tử và trạng thái rối, có thể khó giải thích, thẩm tra và quy trách nhiệm hơn. Các tranh luận và rủi ro đạo đức mà QML mang lại như công bằng thuật toán, xác định trách nhiệm và khả năng kiểm soát kỹ thuật đã có rất nhiều nghiên cứu. Các chuẩn mực đạo đức AI hiện hành (như minh bạch, công bằng, có thể chịu trách nhiệm) sẽ được triển khai thế nào ở quy mô lượng tử? Cơ quan quản lý sẽ thẩm định một mô hình ra quyết định dựa trên mạch lượng tử, có thể ở trạng thái chồng chập của nhiều khả năng, như thế nào? Đây đều là những bài toán mà khung thẩm định đạo đức hiện tại vẫn chưa sẵn sàng. Mô hình quản trị cần chuyển từ tuân thủ kỹ thuật đơn thuần sang một mức độ hiểu sâu hơn về bản chất đặc tính lượng tử và tác động xã hội của nó.

  1. Các quy định quản trị AI hiện có (như GDPR) có thể ứng phó được với các thay đổi an toàn do điện toán lượng tử gây ra không?

Các quy định hiện hành về quản trị AI và dữ liệu do Liên minh châu Âu ban hành, đại diện là Quy định Bảo vệ Dữ liệu Chung (GDPR), có các nguyên tắc cốt lõi như “bảo vệ theo thiết kế và bảo vệ theo mặc định”, “tối thiểu hóa dữ liệu”, “giới hạn lưu trữ” và “tính toàn vẹn và bảo mật”, v.v. Về mặt tư tưởng, chúng vẫn có giá trị hướng dẫn. Tuy nhiên, về mặt thực hiện kỹ thuật cụ thể và yêu cầu tuân thủ, chúng đang phải đối mặt với “khoảng cách tuân thủ” do điện toán lượng tử gây ra.

GDPR yêu cầu người kiểm soát dữ liệu áp dụng các biện pháp kỹ thuật và tổ chức phù hợp để bảo đảm an toàn dữ liệu. Nhưng trong bối cảnh đe dọa lượng tử, thế nào là “các biện pháp mã hóa phù hợp”? Việc tiếp tục sử dụng các thuật toán được chứng minh là không an toàn trước lượng tử rất có thể trong tương lai bị xem là đã không thực hiện nghĩa vụ bảo đảm an toàn. Các yêu cầu về thời hạn thông báo vi phạm dữ liệu trong quy định sẽ được thực thi hiệu quả ra sao khi phải đối mặt với các cuộc tấn công cấp cao tận dụng điện toán lượng tử, có thể hoàn thành trong khoảnh khắc và không để lại dấu vết?

Các nhà lập pháp trên toàn cầu đã nhận thức được sự cần thiết của thay đổi. “Báo cáo thường niên về quản trị AI toàn cầu năm 2025” cho thấy các quốc gia đang tăng tốc xây dựng luật quản trị AI chuyên biệt, đồng thời thành lập các cơ quan điều phối cấp cao. Trung Quốc trong “Báo cáo phát triển Trung Quốc số (2024)” nhấn mạnh cần “đẩy nhanh việc hoàn thiện thể chế nền tảng dữ liệu”, tiếp tục thúc đẩy hành động “AI+”. Những diễn biến này cho thấy hệ thống quản trị đang chủ động điều chỉnh. Tuy nhiên, hiện gần như vẫn chưa có các quy định riêng cho lĩnh vực giao thoa “điện toán lượng tử + AI”. Các quy định hiện hành thiếu những điều khoản cụ thể về lịch trình di cư mật mã hậu lượng tử, tiêu chuẩn kiểm toán mô hình QML và phân loại mức độ an toàn dữ liệu trong thời đại lượng tử, nên khó có thể ứng phó hiệu quả với những biến đổi an toàn sắp tới.

  1. Triển vọng ứng dụng và những khó khăn khi triển khai mật mã hậu lượng tử trong hệ thống AI là gì?

Giải pháp kỹ thuật trực tiếp nhất để ứng phó với đe dọa lượng tử là mật mã hậu lượng tử (PQC). PQC là các thuật toán mã hóa có khả năng chống lại sự tấn công của máy tính lượng tử; nó không dựa trên nguyên lý lượng tử, mà dựa trên những bài toán toán học mới được cho là cả máy tính lượng tử cũng khó giải nhanh (như dạng lưới, mã hóa, đa biến, v.v.).

Triển vọng ứng dụng trong hệ thống AI rộng lớn và cấp bách. PQC có thể được dùng để bảo vệ từng khâu trong quy trình làm việc của AI: dùng thuật toán PQC để mã hóa dữ liệu huấn luyện và tệp mô hình; dùng chữ ký số PQC để xác minh tính toàn vẹn và tính chân thực của nguồn gốc mô hình; và thiết lập các kênh truyền thông an toàn PQC giữa các nút tính toán AI phân tán. Fortinet cho biết PQC không phải là một khái niệm xa vời, mà là giải pháp thực tiễn cấp bách nhằm bảo vệ hệ thống số trước những mối đe dọa lượng tử tiềm tàng.

Tuy nhiên, việc triển khai toàn diện PQC đối mặt với các khó khăn đáng kể:

Thách thức về hiệu năng và tính tương thích: nhiều thuật toán PQC có kích thước khóa, chiều dài chữ ký hoặc chi phí tính toán lớn hơn rất nhiều so với các thuật toán hiện có. Việc tích hợp chúng vào quy trình huấn luyện và suy luận AI vốn nhạy cảm với hiệu suất và độ trễ có thể tạo ra điểm nghẽn về hiệu năng. Đồng thời, cần nâng cấp toàn bộ phần cứng, phần mềm và chồng giao thức liên quan để bảo đảm tương thích.

Độ phức tạp của tiêu chuẩn và hoạt động di chuyển: mặc dù các tổ chức như NIST của Mỹ đang thúc đẩy quá trình tiêu chuẩn hóa PQC, nhưng việc xác định tiêu chuẩn cuối cùng và thống nhất toàn cầu vẫn cần thời gian. “Diễn biến tuyến đầu mật mã” do Cục quản lý mật mã Bắc Kinh công bố cho thấy ngành đang tích cực mã nguồn mở các hiện thực thuật toán ứng viên NIST để thúc đẩy các ngành khác nhau ứng phó với mối đe dọa. Toàn bộ quá trình di chuyển là một dự án hệ thống rất đồ sộ và phức tạp, liên quan đến đánh giá rủi ro, lựa chọn thuật toán, triển khai hỗn hợp, thử nghiệm và thay thế toàn diện, đặc biệt đúng với hệ sinh thái AI có cấu trúc phức tạp.

Rủi ro an toàn mới: bản thân các thuật toán PQC là một lĩnh vực nghiên cứu tương đối mới, và tính an toàn dài hạn của chúng vẫn chưa trải qua thử thách phân tích mật mã thực chiến kéo dài nhiều thập kỷ như RSA. Việc triển khai vội vàng các PQC có thể tồn tại lỗ hổng chưa biết trong hệ thống AI cũng là một rủi ro.

  1. Trước biến đổi này, việc thụ động chờ “Q-Day” là nguy hiểm

Tác động mang tính lật đổ của điện toán lượng tử đối với hệ thống an toàn và quản trị AI hiện có là có thật và đang đến gần. Nó không phải là phá bỏ hoàn toàn hệ thống hiện hữu, mà là khiến hệ thống phải trải qua một lần nâng cấp sâu sắc và mang tầm nhìn: phá vỡ nền tảng mật mã của nó, khuếch đại rủi ro dữ liệu của nó, làm phức tạp các vấn đề đạo đức của nó và làm nổi bật tính lạc hậu của khung quy định của nó.

Đứng trước biến đổi này, việc thụ động chờ “Q-Day” là nguy hiểm. Chúng tôi đề xuất lộ trình hành động có thể thực hiện sau:

Khởi động đánh giá rủi ro an toàn lượng tử và lập danh mục: ngay lập tức thực hiện đánh giá mối đe dọa lượng tử đối với các tài sản AI cốt lõi (đặc biệt là các mô hình và dữ liệu liên quan đến dữ liệu nhạy cảm dài hạn), xác định những mắt xích dễ tổn thương nhất và thiết lập danh sách ưu tiên di chuyển.

Xây dựng và triển khai lộ trình di chuyển PQC: theo dõi tiến độ của các tổ chức tiêu chuẩn như NIST và bắt đầu lên kế hoạch tích hợp PQC trong phát triển và vận hành hệ thống AI. Ưu tiên áp dụng thiết kế “tính linh hoạt về mã hóa” trong các hệ thống mới và hệ thống then chốt để dễ dàng thay thế thuật toán mã hóa trong tương lai một cách liền mạch. Có thể cân nhắc sử dụng chế độ mã hóa lai “cổ điển + PQC” hiện nay làm phương án quá độ.

Thúc đẩy cập nhật tính thích ứng của khung quản trị: các tổ chức ngành, các tổ chức tiêu chuẩn và bên giám sát cần phối hợp nghiên cứu và tích hợp yêu cầu kháng lượng tử vào các tiêu chuẩn an toàn AI, các quy định bảo vệ dữ liệu và hệ thống chứng nhận sản phẩm. Đồng thời, thiết lập sớm khung nghiên cứu và hướng dẫn cho thẩm định đạo đức của QML.

Tăng cường đào tạo và nghiên cứu nhân lực liên ngành: bồi dưỡng các nhân tài đa năng vừa hiểu AI vừa hiểu điện toán lượng tử và mật mã; khuyến khích đưa mô hình mối đe dọa lượng tử vào nghiên cứu an toàn AI; tài trợ cho R&D các công nghệ an toàn AI kháng lượng tử.

Những thách thức do điện toán lượng tử mang lại là rất lớn, nhưng nó cũng đem đến cho chúng ta cơ hội để nhìn lại và gia cố nền tảng của thế giới số. Thông qua lập kế hoạch chủ động, đổi mới phối hợp và quản trị linh hoạt, hoàn toàn có khả năng xây dựng một tương lai AI bền vững: vừa có thể đón nhận lợi ích từ sức mạnh tính toán lượng tử, vừa có thể chống lại các rủi ro an toàn của nó.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Gate Fun hot

    Xem thêm
  • Vốn hóa:$2.23KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.28KNgười nắm giữ:2
    0.10%
  • Vốn hóa:$2.23KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.23KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.23KNgười nắm giữ:1
    0.00%
  • Ghim