Tin AI: OpenAI đang trả tiền cho các nhà nghiên cứu để tìm hiểu những gì có thể đi sai — nhưng các nhóm an toàn nội bộ của họ đã không còn tồn tại

Cryptonews

Tin tức AI từ OpenAI trong tuần này mang một lưỡi dao sắc bén: công ty đã ra mắt chương trình Safety Fellowship trả phí, cung cấp trợ cấp 3.850 USD mỗi tuần cho các nhà nghiên cứu bên ngoài đang tìm hiểu những điều có thể xảy ra sai khi AI tiên tiến — được công bố chỉ trong vài giờ sau một cuộc điều tra của The New Yorker, cho biết OpenAI đã giải tán các đội an toàn nội bộ và âm thầm loại bỏ từ “safely” khỏi tuyên bố sứ mệnh trong hồ sơ IRS của mình.
Tóm tắt

  • Safety Fellowship của OpenAI, được công bố ngày 6 tháng 4, kéo dài từ ngày 14 tháng 9 năm 2026 đến ngày 5 tháng 2 năm 2027; các fellow nhận trợ cấp 3.850 USD mỗi tuần, khoảng 15.000 USD cho tài nguyên compute hằng tháng, và được cố vấn bởi các nhà nghiên cứu của OpenAI, nhưng sẽ không có quyền truy cập vào các hệ thống nội bộ của công ty
  • Các lĩnh vực nghiên cứu ưu tiên bao gồm đánh giá an toàn, đạo đức, độ vững mạnh, các biện pháp giảm thiểu có thể mở rộng, các phương pháp bảo toàn quyền riêng tư, giám sát theo kiểu agentic, và lạm dụng mức độ nghiêm trọng cao — đơn đăng ký đóng vào ngày 3 tháng 5, với các fellow được thông báo trước ngày 25 tháng 7
  • Ronan Farrow của The New Yorker đưa tin trong cùng tuần rằng OpenAI đã giải tán đội superalignment, đội AGI Readiness và đội Mission Alignment của mình từ năm 2024, đồng thời rằng một đại diện của OpenAI đã trả lời một nhà báo khi được hỏi về các nhà nghiên cứu an toàn trước rủi ro tồn tại với: “Bạn muốn nói ‘an toàn trước rủi ro tồn tại’ là gì? Không, đó không phải là một thứ như vậy.”

OpenAI công bố học bổng vào ngày 6 tháng 4 như “một chương trình thí điểm nhằm hỗ trợ nghiên cứu độc lập về an toàn và alignment và phát triển thế hệ nhân tài tiếp theo.” Chương trình trả 3.850 USD mỗi tuần, quy đổi theo năm là hơn 200.000 USD, cùng với khoảng 15.000 USD cho compute hằng tháng và cố vấn từ các nhà nghiên cứu của OpenAI. Các fellow làm việc từ không gian làm việc Berkeley của Constellation hoặc từ xa, và đơn đăng ký đóng vào ngày 3 tháng 5. Học bổng này không giới hạn ở các chuyên gia AI — OpenAI đang tuyển dụng từ lĩnh vực an ninh mạng, khoa học xã hội và tương tác người-máy cùng với khoa học máy tính.

Tin tức AI: OpenAI Ra Mắt Safety Fellowship Khi Các Nhóm An Toàn Nội Bộ Của Công Ty Đã Biến Mất

Thời điểm là câu chuyện. Cuộc điều tra của Ronan Farrow trên The New Yorker, được đăng trong cùng ngày, ghi nhận rằng OpenAI đã giải tán ba tổ chức an toàn nội bộ liên tiếp trong 22 tháng. Nhóm superalignment đã bị dừng hoạt động vào tháng 5 năm 2024 sau khi đồng trưởng nhóm Ilya Sutskever và Jan Leike rời đi. Leike viết khi rời đi rằng “văn hóa và quy trình an toàn đã bị đặt xuống phía sau so với các sản phẩm bóng bẩy.” Nhóm AGI Readiness sau đó tiếp bước vào tháng 10 năm 2024. Nhóm Mission Alignment đã bị giải tán vào tháng 2 năm 2026 sau chỉ 16 tháng. The New Yorker cũng đưa tin rằng khi một nhà báo hỏi để được nói chuyện với các nhà nghiên cứu an toàn trước rủi ro tồn tại của OpenAI, một đại diện của công ty đã trả lời: “Bạn muốn nói ‘an toàn trước rủi ro tồn tại’ là gì? Không, đó không phải là một thứ như vậy.”

Chương trình học bổng nói rõ rằng nó không thay thế cơ sở hạ tầng nội bộ. Các fellow nhận credits API và tài nguyên compute nhưng không có quyền truy cập vào hệ thống, định vị chương trình như một hình thức tài trợ nghiên cứu độc lập, “đứng cách xa” chứ không phải là việc xây dựng lại các đội đã bị giải tán.

Những Thứ Fellow Buộc Phải Sản Xuất Cho Chương Trình Học Bổng

Chương trình nghiên cứu bao trùm bảy lĩnh vực ưu tiên: đánh giá an toàn, đạo đức, độ vững mạnh, các biện pháp giảm thiểu có thể mở rộng, các phương pháp an toàn bảo toàn quyền riêng tư, giám sát theo kiểu agentic, và các miền lạm dụng mức độ nghiêm trọng cao. Đến cuối chương trình vào tháng 2 năm 2027, mỗi fellow phải tạo ra một đầu ra mang tính chất đáng kể — một bài báo, một bộ benchmark, hoặc một bộ dữ liệu. Không cần các chứng chỉ học thuật cụ thể; OpenAI cho biết họ ưu tiên năng lực nghiên cứu, năng lực phán đoán kỹ thuật và khả năng triển khai.

Tại Sao Điều Này Quan Trọng Ngoài Ngành AI

Như crypto.news đã đưa tin, niềm tin vào các cam kết an toàn được nêu của các công ty AI tuyến đầu là một tín hiệu thị trường ảnh hưởng đến phân bổ vốn trên toàn bộ hạ tầng AI, các AI token, và các giao thức DePIN và AI agent nằm ở giao điểm giữa crypto và trí tuệ nhân tạo. Như crypto.news đã lưu ý, quỹ đạo chi tiêu của OpenAI và mức độ đáng tin của các ưu tiên vận hành của họ được các nhà đầu tư theo dõi sát sao khi đánh giá mảng hạ tầng AI — một mảng có mức độ chồng lấn ngày càng lớn với các hệ thống dựa trên blockchain. Liệu các fellow bên ngoài, làm việc mà không có quyền truy cập nội bộ, có thể tác động một cách có ý nghĩa đến việc phát triển mô hình hay không là câu hỏi mà nghiên cứu của nhóm cohort đầu tiên sẽ bắt đầu trả lời vào đầu năm 2027.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận