BBC phóng viên Thomas Germain đã thực hiện một cuộc thí nghiệm giả mạo sâu đầy ám ảnh: chuyên gia nhận diện kỹ thuật số Hany Farid đã trực tiếp tuyên bố “It’s over” — không ai còn có thể chứng minh mình không phải là AI nữa.
(Trước đó, ZachXBT đã vạch trần trang tin giả về “hoảng loạn tận thế”: lợi dụng AI để thúc đẩy lưu lượng chiến tranh, lừa đảo, bán tháo Meme coin để kiếm hàng trăm nghìn đô la)
(Bổ sung bối cảnh: Ngân hàng thương mại Đông Á và Viện kiểm sát nhân dân ký kết MOU: 95% dòng tiền mã hóa trên toàn Đài Loan được đưa vào hệ thống điều tra chống rửa tiền, chống lừa đảo)
Mục lục bài viết
Chuyển đổi
Phóng viên Thomas Germain của BBC đã mô tả một cuộc thí nghiệm gây rợn tối qua: ông gọi điện cho dì Eleanor, người đã quen biết ông suốt đời, trước đó đã thông báo rằng cuộc gọi tiếp theo có thể là người thật hoặc là AI giả mạo bằng công nghệ deepfake.
Kết quả là dì không thể phân biệt được. Germain kết luận đơn giản: nếu ngay cả người thân còn không phân biệt được thật giả, thì vấn đề này đã vượt quá phạm vi kỹ thuật đơn thuần.
Ông hỏi Hany Farid, giáo sư nhận diện kỹ thuật số tại Đại học California, Berkeley, đồng sáng lập GetReal Security: “Bây giờ tôi có thể làm gì để chứng minh mình không phải là AI?” Farid chỉ trả lời một từ: “No.”
Bạn ở New York, tôi ở Berkeley, chúng ta đang gọi video. Thực tế là, tất cả đều có thể giả mạo.
Sau đó Farid nói một câu khiến người ta rùng mình: “Không thể làm gì được. Đã kết thúc rồi (It’s over).”
Germain còn dẫn chứng một trường hợp thực tế gần đây nhất mang tính kỳ quặc. Thủ tướng Israel, ông Netanyahu, đăng tải một đoạn video, ánh sáng phản chiếu khiến tay phải của ông trông như có thêm ngón thứ sáu: đây từng là một trong những điểm yếu điển hình để nhận diện deepfake AI.
Lập tức cộng đồng mạng bùng nổ tin đồn: ông đã tử vong trong vụ tấn công tên lửa, video là giả.
Để tự chứng minh trong sạch, Netanyahu lần lượt đăng tải các video thứ hai, thứ ba, giơ tay lên trong quán cà phê, từng ngón một để xác nhận số ngón đúng. Germain chỉ ra rằng, sau đó Farid đã phân tích âm thanh, kiểm tra từng khung mặt, phân tích ánh sáng và bóng tối trong các video này, kết luận: tất cả đều là thật, “không có bằng chứng nào cho thấy AI đã tạo ra chúng.”
Jeremy Carrasco, đồng sáng lập Riddance, cũng nói với BBC: “Ngón tay sáu không còn là đặc điểm của AI nữa, công cụ tốt nhất đã sửa chữa vấn đề này từ vài năm trước.”
Tuy nhiên, Germain nhận thấy điểm mỉa mai nhất trong bài viết: dù đã có sự xác nhận của các chuyên gia, vẫn còn rất nhiều người tin rằng Netanyahu đã chết. Ông viết rằng, có thể đây là lần đầu tiên trong lịch sử nhân loại, các lãnh đạo của các cường quốc lớn trên thế giới buộc phải công khai chứng minh mình không phải AI (và thất bại).
Germain giới thiệu khái niệm “lợi ích của kẻ nói dối” do các nhà nghiên cứu định nghĩa: Chứng minh sự thật thì tốn kém, nhưng tạo ra nghi ngờ thì miễn phí. Các chính trị gia dễ dàng tuyên bố một đoạn video thật là deepfake, còn việc phản bác lại tiêu tốn thời gian, nguồn lực và uy tín, thường vượt xa chi phí phát tán tin đồn.
Samuel Woolley, Chủ tịch nghiên cứu thông tin giả tại Đại học Pittsburgh, còn cung cấp một chuỗi lịch sử đáng cảnh báo: “Trong giai đoạn đầu chiến tranh Ukraine, tôi đã thấy một số deepfake vụng về. Trong thời kỳ chiến tranh Gaza, nội dung giả nhiều hơn, chất lượng tốt hơn. Đến Venezuela? Tôi thấy nội dung giả còn nhiều hơn thật. Và Iran đã nâng tầm vấn đề này lên một trình độ mới.”
Woolley còn trực tiếp nhắc tên các chính trị gia thúc đẩy kiểm soát: “Họ đang tự thưởng cho chính mình trái đắng do chính mình gieo.”
Về các giải pháp hiện tại, Germain đưa ra một kết luận khá bất ngờ. Các chuyên gia deepfake hàng đầu thế giới, Hany Farid, cuối cùng đề xuất một phương pháp đơn giản nhất: mật mã.
Farid nói với BBC rằng ông và vợ đã thiết lập một mã bí mật riêng để xác minh khi nhận được cuộc gọi đáng ngờ. Đây về cơ bản là một dạng xác thực đa yếu tố theo kiểu cá nhân: khi tất cả các phương pháp kỹ thuật thất bại, hãy trở về với nguyên tắc tin tưởng ban đầu.
Dù bài báo của Germain tập trung vào khủng hoảng niềm tin xã hội, dữ liệu của AARP (Hiệp hội người cao tuổi Mỹ) cho thấy hậu quả tài chính trực tiếp còn rõ rệt hơn: từ 2023 đến 2025, các vụ lừa đảo liên quan đến AI đã tăng 20 lần. Công ty kỹ thuật Anh Arup từng mất 25 triệu USD trong một cuộc gọi video giả mạo giám đốc tài chính của họ.
Tình hình thị trường tiền mã hóa còn nghiêm trọng hơn. Theo thống kê của Fintech Global, trong quý 1 năm 2026, số tiền bị lừa đảo qua các vụ lừa đảo bằng deepfake đã lên tới 200 triệu USD, tăng 340% so với cùng kỳ. Dự kiến, deepfake sẽ chiếm tới 70% các hoạt động tội phạm liên quan đến tiền mã hóa.
Điều khiến các cơ quan quản lý đau đầu hơn nữa là một công cụ tên ProKYC: chỉ với 629 USD phí hàng năm, cung cấp giả lập ảo, hoạt hình khuôn mặt và sinh trắc học dấu vân tay, có thể tạo ra danh tính mới hoàn toàn, qua mặt các hệ thống xác minh sinh trắc học của các sàn giao dịch tiền mã hóa. Bộ Tài chính Mỹ đã yêu cầu tăng cường quản lý tích hợp AI và hệ thống định danh kỹ thuật số.
Còn một thay đổi có thể còn ảnh hưởng lớn hơn nữa: khi các đại lý AI đã có thể tự chủ sở hữu ví tiền, tự khởi tạo các giao dịch riêng biệt. Trong tình huống này, “khách hàng” thực chất là con người hay chính AI? Khung pháp lý về KYC có thể rơi vào khoảng trống.
Thật trớ trêu, chúng ta xây dựng hệ thống xác minh để nhận diện AI, nhưng AI lại tiến hóa để có thể vượt qua các hệ thống đó. Và cuối cùng, phương pháp duy nhất còn lại có thể chỉ là một mã bí mật cổ điển giữa bạn và người thân.