Tin tức AI từ OpenAI trong tuần này mang một lưỡi dao sắc bén: công ty đã ra mắt chương trình Safety Fellowship trả phí, cung cấp trợ cấp 3.850 USD mỗi tuần cho các nhà nghiên cứu bên ngoài đang tìm hiểu những điều có thể xảy ra sai khi AI tiên tiến — được công bố chỉ trong vài giờ sau một cuộc điều tra của The New Yorker, cho biết OpenAI đã giải tán các đội an toàn nội bộ và âm thầm loại bỏ từ “safely” khỏi tuyên bố sứ mệnh trong hồ sơ IRS của mình.
Tóm tắt
OpenAI công bố học bổng vào ngày 6 tháng 4 như “một chương trình thí điểm nhằm hỗ trợ nghiên cứu độc lập về an toàn và alignment và phát triển thế hệ nhân tài tiếp theo.” Chương trình trả 3.850 USD mỗi tuần, quy đổi theo năm là hơn 200.000 USD, cùng với khoảng 15.000 USD cho compute hằng tháng và cố vấn từ các nhà nghiên cứu của OpenAI. Các fellow làm việc từ không gian làm việc Berkeley của Constellation hoặc từ xa, và đơn đăng ký đóng vào ngày 3 tháng 5. Học bổng này không giới hạn ở các chuyên gia AI — OpenAI đang tuyển dụng từ lĩnh vực an ninh mạng, khoa học xã hội và tương tác người-máy cùng với khoa học máy tính.
Thời điểm là câu chuyện. Cuộc điều tra của Ronan Farrow trên The New Yorker, được đăng trong cùng ngày, ghi nhận rằng OpenAI đã giải tán ba tổ chức an toàn nội bộ liên tiếp trong 22 tháng. Nhóm superalignment đã bị dừng hoạt động vào tháng 5 năm 2024 sau khi đồng trưởng nhóm Ilya Sutskever và Jan Leike rời đi. Leike viết khi rời đi rằng “văn hóa và quy trình an toàn đã bị đặt xuống phía sau so với các sản phẩm bóng bẩy.” Nhóm AGI Readiness sau đó tiếp bước vào tháng 10 năm 2024. Nhóm Mission Alignment đã bị giải tán vào tháng 2 năm 2026 sau chỉ 16 tháng. The New Yorker cũng đưa tin rằng khi một nhà báo hỏi để được nói chuyện với các nhà nghiên cứu an toàn trước rủi ro tồn tại của OpenAI, một đại diện của công ty đã trả lời: “Bạn muốn nói ‘an toàn trước rủi ro tồn tại’ là gì? Không, đó không phải là một thứ như vậy.”
Chương trình học bổng nói rõ rằng nó không thay thế cơ sở hạ tầng nội bộ. Các fellow nhận credits API và tài nguyên compute nhưng không có quyền truy cập vào hệ thống, định vị chương trình như một hình thức tài trợ nghiên cứu độc lập, “đứng cách xa” chứ không phải là việc xây dựng lại các đội đã bị giải tán.
Chương trình nghiên cứu bao trùm bảy lĩnh vực ưu tiên: đánh giá an toàn, đạo đức, độ vững mạnh, các biện pháp giảm thiểu có thể mở rộng, các phương pháp an toàn bảo toàn quyền riêng tư, giám sát theo kiểu agentic, và các miền lạm dụng mức độ nghiêm trọng cao. Đến cuối chương trình vào tháng 2 năm 2027, mỗi fellow phải tạo ra một đầu ra mang tính chất đáng kể — một bài báo, một bộ benchmark, hoặc một bộ dữ liệu. Không cần các chứng chỉ học thuật cụ thể; OpenAI cho biết họ ưu tiên năng lực nghiên cứu, năng lực phán đoán kỹ thuật và khả năng triển khai.
Như crypto.news đã đưa tin, niềm tin vào các cam kết an toàn được nêu của các công ty AI tuyến đầu là một tín hiệu thị trường ảnh hưởng đến phân bổ vốn trên toàn bộ hạ tầng AI, các AI token, và các giao thức DePIN và AI agent nằm ở giao điểm giữa crypto và trí tuệ nhân tạo. Như crypto.news đã lưu ý, quỹ đạo chi tiêu của OpenAI và mức độ đáng tin của các ưu tiên vận hành của họ được các nhà đầu tư theo dõi sát sao khi đánh giá mảng hạ tầng AI — một mảng có mức độ chồng lấn ngày càng lớn với các hệ thống dựa trên blockchain. Liệu các fellow bên ngoài, làm việc mà không có quyền truy cập nội bộ, có thể tác động một cách có ý nghĩa đến việc phát triển mô hình hay không là câu hỏi mà nghiên cứu của nhóm cohort đầu tiên sẽ bắt đầu trả lời vào đầu năm 2027.