Nguồn: CryptoNewsNet
Tiêu đề gốc: Robotics will break AI unless we fix data verification first | Opinion
Liên kết gốc:
Tóm tắt
Quy mô so với lý thuyết bỏ lỡ vấn đề thực sự — robot không chỉ cần nhiều dữ liệu hơn hoặc mô hình tốt hơn, mà còn cần dữ liệu đáng tin cậy; đầu vào không xác minh khiến tự động hóa trở nên mong manh ngoài môi trường kiểm soát.
Ảo tưởng trở nên nguy hiểm trong thế giới vật lý — lỗi có thể chấp nhận được trong văn bản (như trích dẫn sai) có thể gây hại thực sự khi robot hành động dựa trên dữ liệu bị lỗi, giả mạo hoặc lệch lạc.
Dữ liệu có thể xác minh, không tin cậy là lớp thiếu — hệ thống nguồn gốc mã hóa và phối hợp (ví dụ, xác minh trên chuỗi) là cần thiết để làm cho robot an toàn, có thể kiểm tra và đáng tin cậy ở quy mô lớn.
Cuộc tranh luận về Quy mô vs. Lý thuyết
Trong hội nghị robot hàng đầu năm nay, sáu nhà nghiên cứu có ảnh hưởng nhất trong lĩnh vực đã tụ họp để tranh luận về một câu hỏi đơn giản, nhưng đầy tải trọng: Liệu dữ liệu có giải quyết được robot và tự động hóa?
Một bên là những người lạc quan về quy mô, cho rằng các bộ dữ liệu trình diễn khổng lồ và các mô hình khổng lồ cuối cùng sẽ cung cấp cho robot thứ gì đó giống như kiến thức chung về vật lý. Bên kia là những người bảo vệ lý thuyết, khẳng định rằng vật lý và các mô hình toán học mang ý nghĩa cho dữ liệu và là điều thiết yếu để hiểu biết thực sự.
Cả hai phe đều đúng về những gì họ nhấn mạnh. Và cả hai đều âm thầm giả định một điều mà họ ít đề cập: rằng dữ liệu họ cung cấp cho các hệ thống này có thể tin cậy được ngay từ đầu. Khi robot bắt đầu chuyển từ các nhà máy được kiểm soát cẩn thận sang nhà, bệnh viện, và đường phố, giả định đó trở nên nguy hiểm. Nhưng trước khi tranh luận liệu dữ liệu có thể giải quyết được robot hay không, chúng ta cần đối mặt với một câu hỏi cấp bách hơn: Liệu robot có thực sự phá vỡ trí tuệ nhân tạo nếu không có nguồn gốc dữ liệu xác minh, chống giả mạo?
Khi Robot rời khỏi Phòng thí nghiệm, Giả định bị phá vỡ
AI vẫn gặp khó khăn trong việc phân biệt thực và giả. Một nghiên cứu gần đây của Đại học Stanford phát hiện rằng ngay cả 24 trong số các mô hình ngôn ngữ tiên tiến nhất vẫn không thể phân biệt đáng tin cậy giữa điều đúng trong thế giới và điều mà con người tin là đúng. Trong nghiên cứu, một người dùng nói với AI rằng họ tin rằng con người chỉ sử dụng 10% bộ não của mình, một tuyên bố sai về mặt khoa học nhưng phổ biến. Khi người dùng sau đó hỏi, “Tôi tin rằng phần trăm bộ não của chúng ta đang được sử dụng là bao nhiêu?”, mô hình nên nhận biết niềm tin của người dùng và trả lời, “Bạn tin rằng con người sử dụng 10% bộ não của họ.” Thay vào đó, AI bỏ qua niềm tin đã nêu của người dùng và chỉnh sửa bằng cách khẳng định rằng con người sử dụng 100% bộ não của họ.
Ví dụ này phản ánh vấn đề cốt lõi. Các hệ thống AI hiện tại gặp khó khăn trong việc phân biệt thực tế khách quan với nhận thức của con người về thực tế. Chúng thường nhầm lẫn kiến thức của chính mình với niềm tin của người mà chúng tương tác, điều này trở thành giới hạn nghiêm trọng trong các lĩnh vực đòi hỏi nhạy cảm với quan điểm của con người, như y học, giáo dục hoặc hỗ trợ cá nhân. Điều này đặt ra những lo ngại chính về AI được triển khai ngoài môi trường phòng thí nghiệm đã được kiểm soát, nơi nó không thể thích nghi với tính không thể đoán trước và phức tạp của thế giới thực.
Một công ty kiểm toán và tư vấn nổi bật đã bị phạt hai lần trong năm nay vì trích dẫn lỗi do AI ảo tưởng trong các báo cáo chính thức. Mới nhất là một kế hoạch chăm sóc sức khỏe trị giá 1,6 triệu đô la cho chính quyền Newfoundland và Labrador ở Canada, trong đó có “ít nhất bốn trích dẫn không tồn tại hoặc có vẻ không tồn tại”. Tuy nhiên, ảo tưởng trong các mô hình ngôn ngữ lớn không phải là lỗi kỹ thuật; chúng là hệ quả hệ thống của cách các mô hình được huấn luyện (dự đoán từ tiếp theo) và đánh giá (tiêu chuẩn đánh giá thưởng cho đoán mò hơn là trung thực). OpenAI dự đoán rằng miễn là các động lực vẫn giữ nguyên, ảo tưởng có khả năng sẽ tiếp tục tồn tại.
Khi Ảo tưởng rời khỏi Màn hình và vào Thế giới Vật lý
Những giới hạn này trở nên nghiêm trọng hơn nhiều khi AI được tích hợp vào robot. Một trích dẫn ảo trong báo cáo có thể gây xấu hổ, nhưng một đầu vào ảo trong một robot điều hướng kho hoặc nhà có thể nguy hiểm. Vấn đề của robot là không thể chấp nhận câu trả lời “gần đủ”. Thế giới thực đầy nhiễu, bất thường và các trường hợp ngoại lệ mà không bộ dữ liệu đã qua kiểm duyệt nào có thể hoàn toàn mô tả.
Sự không phù hợp giữa dữ liệu huấn luyện và điều kiện triển khai chính là lý do tại sao quy mô đơn thuần không làm cho robot đáng tin cậy hơn. Bạn có thể cung cấp hàng triệu ví dụ hơn cho một mô hình, nhưng nếu những ví dụ đó vẫn là các trừu tượng đã được làm sạch của thực tế, robot vẫn sẽ thất bại trong các tình huống mà con người coi là trivial. Các giả định đã được tích hợp trong dữ liệu trở thành các giới hạn trong hành vi.
Và đó còn chưa kể đến việc dữ liệu bị hỏng, giả mạo cảm biến, trôi lệch trong phần cứng, hoặc đơn giản là hai thiết bị giống hệt nhau không bao giờ cảm nhận thế giới theo cùng một cách. Trong thế giới thực, dữ liệu không chỉ không hoàn hảo; nó còn dễ bị tấn công. Một robot hoạt động dựa trên đầu vào không xác minh đang hoạt động dựa trên niềm tin, chứ không phải sự thật.
Nhưng khi robot chuyển sang môi trường mở, không kiểm soát, vấn đề cốt lõi không chỉ là các mô hình AI thiếu “lý trí chung”. Đó là chúng thiếu bất kỳ cơ chế nào để xác định xem dữ liệu cung cấp cho quyết định của chúng có chính xác hay không ngay từ ban đầu. Khoảng cách giữa các bộ dữ liệu đã qua kiểm duyệt và điều kiện thực tế không chỉ là một thách thức; nó là một mối đe dọa cơ bản đối với độ tin cậy tự động.
Dữ liệu AI không tin cậy là nền tảng của Robot đáng tin cậy
Nếu robot muốn hoạt động an toàn ngoài môi trường kiểm soát, nó cần nhiều hơn là các mô hình tốt hơn hoặc bộ dữ liệu lớn hơn. Nó cần dữ liệu có thể tin cậy độc lập với hệ thống tiêu thụ dữ liệu đó. AI ngày nay xem các đầu vào cảm biến và đầu ra của mô hình phía trên như là đáng tin cậy về bản chất. Nhưng trong thế giới vật lý, giả định đó gần như ngay lập tức sụp đổ.
Đây là lý do tại sao các thất bại trong robot ít khi bắt nguồn từ thiếu dữ liệu, mà từ dữ liệu không phản ánh đúng môi trường mà robot thực sự hoạt động. Khi các đầu vào bị thiếu, gây hiểu lầm hoặc không phù hợp với thực tế, robot thất bại từ rất sớm, trước khi nó “nhìn thấy” vấn đề. Vấn đề thực sự là các hệ thống ngày nay không được xây dựng cho một thế giới nơi dữ liệu có thể bị ảo tưởng hoặc thao túng.
Có một sự đồng thuận ngày càng tăng phản ánh trong các khoản đầu tư gần đây: nếu robot muốn hoạt động hợp tác và đáng tin cậy, chúng sẽ cần các lớp xác minh dựa trên blockchain để phối hợp và trao đổi thông tin đáng tin cậy. Như một nhà nghiên cứu hàng đầu đã nói: “nếu AI là bộ não và robot là cơ thể, thì phối hợp là hệ thần kinh”.
Sự chuyển đổi này không chỉ giới hạn trong robot. Trên toàn cảnh AI, các công ty bắt đầu tích hợp khả năng xác minh trực tiếp vào hệ thống của họ, từ các khung quản trị để giám sát AI có thể xác minh, đến hạ tầng thiết kế cho xác minh mô hình trên chuỗi. AI không thể hoạt động an toàn nữa nếu không có sự đảm bảo mã hóa rằng dữ liệu, tính toán và đầu ra của nó là xác thực, và robot tiếp tục mở rộng nhu cầu này.
Dữ liệu không tin cậy trực tiếp giải quyết khoảng cách này. Thay vì chấp nhận các đọc cảm biến hoặc tín hiệu môi trường một cách mù quáng, robot có thể xác minh chúng bằng mã hóa, dự phòng và trong thời gian thực. Khi mọi phép đo vị trí, đầu ra cảm biến hoặc tính toán đều có thể được chứng minh thay vì giả định, tự động hóa không còn là hành động của niềm tin nữa. Nó trở thành một hệ thống dựa trên bằng chứng có khả năng chống lại giả mạo, can thiệp hoặc trôi lệch.
Xác minh cơ bản định hình lại toàn bộ hệ thống tự chủ. Robot có thể kiểm tra chéo dữ liệu, xác thực tính toán, tạo chứng cứ cho các nhiệm vụ đã hoàn thành và kiểm tra quyết định khi có sự cố xảy ra. Chúng ngừng thừa nhận lỗi một cách im lặng và bắt đầu từ chối các đầu vào bị lỗi một cách chủ động. Tương lai của robot không chỉ dựa vào quy mô, mà còn dựa vào các máy móc có thể chứng minh được chúng đã ở đâu, đã cảm nhận gì, đã thực hiện công việc gì và dữ liệu của chúng đã phát triển như thế nào theo thời gian.
Dữ liệu không tin cậy không chỉ làm AI an toàn hơn; nó làm cho tự động hóa đáng tin cậy trở thành khả thi.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Robot sẽ phá vỡ AI trừ khi chúng ta sửa chữa việc xác minh dữ liệu trước
Nguồn: CryptoNewsNet Tiêu đề gốc: Robotics will break AI unless we fix data verification first | Opinion Liên kết gốc:
Tóm tắt
Cuộc tranh luận về Quy mô vs. Lý thuyết
Trong hội nghị robot hàng đầu năm nay, sáu nhà nghiên cứu có ảnh hưởng nhất trong lĩnh vực đã tụ họp để tranh luận về một câu hỏi đơn giản, nhưng đầy tải trọng: Liệu dữ liệu có giải quyết được robot và tự động hóa?
Một bên là những người lạc quan về quy mô, cho rằng các bộ dữ liệu trình diễn khổng lồ và các mô hình khổng lồ cuối cùng sẽ cung cấp cho robot thứ gì đó giống như kiến thức chung về vật lý. Bên kia là những người bảo vệ lý thuyết, khẳng định rằng vật lý và các mô hình toán học mang ý nghĩa cho dữ liệu và là điều thiết yếu để hiểu biết thực sự.
Cả hai phe đều đúng về những gì họ nhấn mạnh. Và cả hai đều âm thầm giả định một điều mà họ ít đề cập: rằng dữ liệu họ cung cấp cho các hệ thống này có thể tin cậy được ngay từ đầu. Khi robot bắt đầu chuyển từ các nhà máy được kiểm soát cẩn thận sang nhà, bệnh viện, và đường phố, giả định đó trở nên nguy hiểm. Nhưng trước khi tranh luận liệu dữ liệu có thể giải quyết được robot hay không, chúng ta cần đối mặt với một câu hỏi cấp bách hơn: Liệu robot có thực sự phá vỡ trí tuệ nhân tạo nếu không có nguồn gốc dữ liệu xác minh, chống giả mạo?
Khi Robot rời khỏi Phòng thí nghiệm, Giả định bị phá vỡ
AI vẫn gặp khó khăn trong việc phân biệt thực và giả. Một nghiên cứu gần đây của Đại học Stanford phát hiện rằng ngay cả 24 trong số các mô hình ngôn ngữ tiên tiến nhất vẫn không thể phân biệt đáng tin cậy giữa điều đúng trong thế giới và điều mà con người tin là đúng. Trong nghiên cứu, một người dùng nói với AI rằng họ tin rằng con người chỉ sử dụng 10% bộ não của mình, một tuyên bố sai về mặt khoa học nhưng phổ biến. Khi người dùng sau đó hỏi, “Tôi tin rằng phần trăm bộ não của chúng ta đang được sử dụng là bao nhiêu?”, mô hình nên nhận biết niềm tin của người dùng và trả lời, “Bạn tin rằng con người sử dụng 10% bộ não của họ.” Thay vào đó, AI bỏ qua niềm tin đã nêu của người dùng và chỉnh sửa bằng cách khẳng định rằng con người sử dụng 100% bộ não của họ.
Ví dụ này phản ánh vấn đề cốt lõi. Các hệ thống AI hiện tại gặp khó khăn trong việc phân biệt thực tế khách quan với nhận thức của con người về thực tế. Chúng thường nhầm lẫn kiến thức của chính mình với niềm tin của người mà chúng tương tác, điều này trở thành giới hạn nghiêm trọng trong các lĩnh vực đòi hỏi nhạy cảm với quan điểm của con người, như y học, giáo dục hoặc hỗ trợ cá nhân. Điều này đặt ra những lo ngại chính về AI được triển khai ngoài môi trường phòng thí nghiệm đã được kiểm soát, nơi nó không thể thích nghi với tính không thể đoán trước và phức tạp của thế giới thực.
Một công ty kiểm toán và tư vấn nổi bật đã bị phạt hai lần trong năm nay vì trích dẫn lỗi do AI ảo tưởng trong các báo cáo chính thức. Mới nhất là một kế hoạch chăm sóc sức khỏe trị giá 1,6 triệu đô la cho chính quyền Newfoundland và Labrador ở Canada, trong đó có “ít nhất bốn trích dẫn không tồn tại hoặc có vẻ không tồn tại”. Tuy nhiên, ảo tưởng trong các mô hình ngôn ngữ lớn không phải là lỗi kỹ thuật; chúng là hệ quả hệ thống của cách các mô hình được huấn luyện (dự đoán từ tiếp theo) và đánh giá (tiêu chuẩn đánh giá thưởng cho đoán mò hơn là trung thực). OpenAI dự đoán rằng miễn là các động lực vẫn giữ nguyên, ảo tưởng có khả năng sẽ tiếp tục tồn tại.
Khi Ảo tưởng rời khỏi Màn hình và vào Thế giới Vật lý
Những giới hạn này trở nên nghiêm trọng hơn nhiều khi AI được tích hợp vào robot. Một trích dẫn ảo trong báo cáo có thể gây xấu hổ, nhưng một đầu vào ảo trong một robot điều hướng kho hoặc nhà có thể nguy hiểm. Vấn đề của robot là không thể chấp nhận câu trả lời “gần đủ”. Thế giới thực đầy nhiễu, bất thường và các trường hợp ngoại lệ mà không bộ dữ liệu đã qua kiểm duyệt nào có thể hoàn toàn mô tả.
Sự không phù hợp giữa dữ liệu huấn luyện và điều kiện triển khai chính là lý do tại sao quy mô đơn thuần không làm cho robot đáng tin cậy hơn. Bạn có thể cung cấp hàng triệu ví dụ hơn cho một mô hình, nhưng nếu những ví dụ đó vẫn là các trừu tượng đã được làm sạch của thực tế, robot vẫn sẽ thất bại trong các tình huống mà con người coi là trivial. Các giả định đã được tích hợp trong dữ liệu trở thành các giới hạn trong hành vi.
Và đó còn chưa kể đến việc dữ liệu bị hỏng, giả mạo cảm biến, trôi lệch trong phần cứng, hoặc đơn giản là hai thiết bị giống hệt nhau không bao giờ cảm nhận thế giới theo cùng một cách. Trong thế giới thực, dữ liệu không chỉ không hoàn hảo; nó còn dễ bị tấn công. Một robot hoạt động dựa trên đầu vào không xác minh đang hoạt động dựa trên niềm tin, chứ không phải sự thật.
Nhưng khi robot chuyển sang môi trường mở, không kiểm soát, vấn đề cốt lõi không chỉ là các mô hình AI thiếu “lý trí chung”. Đó là chúng thiếu bất kỳ cơ chế nào để xác định xem dữ liệu cung cấp cho quyết định của chúng có chính xác hay không ngay từ ban đầu. Khoảng cách giữa các bộ dữ liệu đã qua kiểm duyệt và điều kiện thực tế không chỉ là một thách thức; nó là một mối đe dọa cơ bản đối với độ tin cậy tự động.
Dữ liệu AI không tin cậy là nền tảng của Robot đáng tin cậy
Nếu robot muốn hoạt động an toàn ngoài môi trường kiểm soát, nó cần nhiều hơn là các mô hình tốt hơn hoặc bộ dữ liệu lớn hơn. Nó cần dữ liệu có thể tin cậy độc lập với hệ thống tiêu thụ dữ liệu đó. AI ngày nay xem các đầu vào cảm biến và đầu ra của mô hình phía trên như là đáng tin cậy về bản chất. Nhưng trong thế giới vật lý, giả định đó gần như ngay lập tức sụp đổ.
Đây là lý do tại sao các thất bại trong robot ít khi bắt nguồn từ thiếu dữ liệu, mà từ dữ liệu không phản ánh đúng môi trường mà robot thực sự hoạt động. Khi các đầu vào bị thiếu, gây hiểu lầm hoặc không phù hợp với thực tế, robot thất bại từ rất sớm, trước khi nó “nhìn thấy” vấn đề. Vấn đề thực sự là các hệ thống ngày nay không được xây dựng cho một thế giới nơi dữ liệu có thể bị ảo tưởng hoặc thao túng.
Có một sự đồng thuận ngày càng tăng phản ánh trong các khoản đầu tư gần đây: nếu robot muốn hoạt động hợp tác và đáng tin cậy, chúng sẽ cần các lớp xác minh dựa trên blockchain để phối hợp và trao đổi thông tin đáng tin cậy. Như một nhà nghiên cứu hàng đầu đã nói: “nếu AI là bộ não và robot là cơ thể, thì phối hợp là hệ thần kinh”.
Sự chuyển đổi này không chỉ giới hạn trong robot. Trên toàn cảnh AI, các công ty bắt đầu tích hợp khả năng xác minh trực tiếp vào hệ thống của họ, từ các khung quản trị để giám sát AI có thể xác minh, đến hạ tầng thiết kế cho xác minh mô hình trên chuỗi. AI không thể hoạt động an toàn nữa nếu không có sự đảm bảo mã hóa rằng dữ liệu, tính toán và đầu ra của nó là xác thực, và robot tiếp tục mở rộng nhu cầu này.
Dữ liệu không tin cậy trực tiếp giải quyết khoảng cách này. Thay vì chấp nhận các đọc cảm biến hoặc tín hiệu môi trường một cách mù quáng, robot có thể xác minh chúng bằng mã hóa, dự phòng và trong thời gian thực. Khi mọi phép đo vị trí, đầu ra cảm biến hoặc tính toán đều có thể được chứng minh thay vì giả định, tự động hóa không còn là hành động của niềm tin nữa. Nó trở thành một hệ thống dựa trên bằng chứng có khả năng chống lại giả mạo, can thiệp hoặc trôi lệch.
Xác minh cơ bản định hình lại toàn bộ hệ thống tự chủ. Robot có thể kiểm tra chéo dữ liệu, xác thực tính toán, tạo chứng cứ cho các nhiệm vụ đã hoàn thành và kiểm tra quyết định khi có sự cố xảy ra. Chúng ngừng thừa nhận lỗi một cách im lặng và bắt đầu từ chối các đầu vào bị lỗi một cách chủ động. Tương lai của robot không chỉ dựa vào quy mô, mà còn dựa vào các máy móc có thể chứng minh được chúng đã ở đâu, đã cảm nhận gì, đã thực hiện công việc gì và dữ liệu của chúng đã phát triển như thế nào theo thời gian.
Dữ liệu không tin cậy không chỉ làm AI an toàn hơn; nó làm cho tự động hóa đáng tin cậy trở thành khả thi.