**Hướng dẫn: **Giám đốc điều hành Hassabis của Google DeepMind đã đưa ra một tiết lộ mới: mô hình Gemini mới sẽ được kết hợp với AlphaGo và mô hình ngôn ngữ lớn và chi phí dự kiến lên tới hàng chục triệu đô la, thậm chí hàng trăm triệu.
Google, nó thực sự choáng ngợp.
Có phải Gemini huyền thoại, kết hợp các mô hình lớn giống như AlphaGo và GPT-4, cuối cùng cũng xuất hiện?
Một là hệ thống AI sử dụng học tăng cường để đánh bại nhà vô địch cờ vây con người và tạo nên lịch sử, hai là mô hình lớn đa phương thức mạnh nhất thống trị hầu hết các danh sách mô hình quy mô lớn. Sự kết hợp của hai AI gần như là bất khả chiến bại lên!
Giám đốc điều hành Google DeepMind Hassabis gần đây đã nói với phương tiện truyền thông nước ngoài Wired rằng Gemini vẫn đang được phát triển và sẽ mất vài tháng, trong khi Google DeepMind sẵn sàng chi hàng chục triệu đô la, thậm chí hàng trăm triệu đô la.
Trước đây, Sam Altman đã tiết lộ rằng chi phí tạo ra GPT-4 đã vượt quá 100 triệu USD. Dĩ nhiên là Google DeepMind không thể thua.
Quá dài để đọc phiên bản
Gemini sẽ kết hợp AlphaGo với các chức năng ngôn ngữ của các mô hình lớn như GPT-4 và khả năng giải quyết vấn đề cũng như lập kế hoạch của hệ thống sẽ được nâng cao đáng kể.
Gemini là một mô hình ngôn ngữ lớn, tương tự như GPT-4
Ước tính tiêu tốn hàng chục đến hàng trăm triệu đô la, tương đương với chi phí phát triển GPT-4
Ngoài AlphaGo, sẽ có những đổi mới khác
Gemini sẽ tích hợp AlphaGO bằng cách sử dụng học tăng cường và tìm kiếm cây.
Học tăng cường cho phép AI giải các câu đố đầy thách thức bằng cách học hỏi từ quá trình thử và sai
Phương pháp tìm kiếm cây giúp khám phá và ghi nhớ các bước di chuyển có thể có trong cảnh, chẳng hạn như trong các cảnh trò chơi
Kinh nghiệm sâu rộng của DeepMind trong việc học tăng cường sẽ mang đến các tính năng mới cho Gemini.
Các lĩnh vực công nghệ khác (chẳng hạn như người máy và khoa học thần kinh) cũng sẽ được tích hợp vào Gemini
Thuật toán tiếp theo, vượt qua ChatGPT
Theo Giám đốc điều hành OpenAI Sam Altman, GPT-5 vẫn còn vài ngày nữa mới được phát hành và việc đào tạo sẽ không bắt đầu trong ít nhất sáu tháng. Ngày phát hành của Gemini vẫn chưa được xác định, nhưng có thể trong vòng vài tháng tới.
Gemini, vẫn đang được phát triển, cũng là một mô hình ngôn ngữ lớn để xử lý văn bản, có bản chất tương tự như GPT-4.
Nhưng Giám đốc điều hành Google DeepMind Demis Hassabis nói rằng Gemini sẽ kết hợp công nghệ được sử dụng trong AlphaGo, thứ sẽ mang lại cho hệ thống khả năng lập kế hoạch và giải quyết vấn đề mới.
Năm 2016, cảnh AlphaGo đánh bại nhà vô địch cờ vây thế giới Lee Sedol vẫn còn sống động.
Hassabis nói, “Có thể nói Gemini kết hợp một số ưu điểm của hệ thống AlphaGo với khả năng ngôn ngữ tuyệt vời của mô hình ngôn ngữ lớn. Và, chúng tôi có một số đổi mới thú vị khác.”
Gemini được cho là có khả năng đa phương thức không có trong các mô hình trước đó và rất hiệu quả trong việc tích hợp các công cụ và API. Hơn nữa, Gemini sẽ có nhiều kích cỡ khác nhau, được thiết kế để hỗ trợ những đổi mới trong tương lai về trí nhớ và lập kế hoạch.
Vào tháng 3, người ta nói rằng Gemini sẽ có một nghìn tỷ tham số như GPT-4. Hơn nữa, người ta nói rằng Gemini sẽ sử dụng hàng chục nghìn chip Google TPU AI để đào tạo.
Tại hội nghị Google Developers I/O vào tháng trước, Google đã đề cập rằng ngay từ đầu, mục tiêu của Gemini là các công cụ và API tích hợp hiệu quả, đa phương thức.
Vào thời điểm đó, thông báo của Google là: “Mặc dù vẫn còn sớm, nhưng chúng tôi đã thấy ở Gemini khả năng đa phương thức chưa từng thấy trong các mẫu trước đây, điều này rất ấn tượng.”
Công nghệ đằng sau AlphaGo là học tăng cường, một công nghệ do DeepMind tiên phong.
Các tác nhân RL tương tác với môi trường theo thời gian, học các chính sách thông qua thử và sai để tối đa hóa phần thưởng tích lũy lâu dài
Thông qua học tăng cường, AI có thể điều chỉnh hiệu suất của mình thông qua thử và sai cũng như nhận phản hồi, từ đó học cách xử lý các vấn đề rất khó, chẳng hạn như chọn cách thực hiện nước đi tiếp theo trong cờ vây hoặc trò chơi điện tử.
Ngoài ra, AlphaGo còn sử dụng phương pháp Tìm kiếm trên cây Monte Carlo (MCTS) để khám phá và ghi nhớ tất cả các nước đi có thể có trên bàn cờ.
Đây không phải là lần đầu tiên Hassabis khuấy động cơn sốt tìm vàng AI khổng lồ giữa các gã khổng lồ công nghệ.
Vào năm 2014, DeepMind đã sử dụng phương pháp học tăng cường để cho phép AI học cách chơi các trò chơi điện tử đơn giản. Thành tích này thật đáng kinh ngạc và DeepMind đã được Google mua lại trực tiếp.
Đặt cược của Google hóa ra là đúng.
Trong vài năm tiếp theo, DeepMind thỉnh thoảng đã tạo ra một kết quả gây chấn động thế giới.
Học sâu và học tăng cường đang giải quyết nhiều vấn đề trí tuệ nhân tạo cổ điển, chẳng hạn như logic, lý luận và biểu diễn tri thức
Vào năm 2016, AlphaGo làm rung chuyển trái đất đã trực tiếp châm ngòi cho sự bùng nổ của deep learning và vòng đầu tiên của ngành công nghiệp AI.
Vào năm 2017, AlphaGo Zero đã nhanh chóng vượt qua AlphaGo mà không sử dụng dữ liệu của con người.
AlphaGo Zero
Vào năm 2020, dự đoán cấu trúc protein của AlphaFold có thể so sánh với công nghệ phòng thí nghiệm, về cơ bản giải quyết vấn đề gấp protein.
Vào tháng 6 năm nay, AlphaDev đã tạo ra một thuật toán sắp xếp mới, có thể thay đổi hoàn toàn hiệu quả và kết quả của khoa học máy tính.
So với lộ trình tổng quát hơn của OpenAI, DeepMind đã tham gia sâu vào lĩnh vực dọc trong nhiều năm.
Đâu là bước nhảy vọt tiếp theo trong các mô hình ngôn ngữ? Song Tử có thể chỉ đường cho thế hệ mô hình ngôn ngữ tiếp theo.
Đứng cuối
Rõ ràng, Gemini là chỗ dựa cuối cùng của Google.
Nhiều công nghệ do Google tiên phong, chẳng hạn như kiến trúc Máy biến áp, đã giúp cho sự bùng nổ của AI gần đây trở nên khả thi.
Do quá thận trọng trong việc phát triển và triển khai công nghệ nên tạm thời bị tụt lại phía sau trước sự cạnh tranh của ChatGPT và các AI thế hệ mới khác.
Để chống lại ChatGPT, Google đã liên tục đưa ra nhiều hành động, chẳng hạn như tung ra Bard và tích hợp AI tổng quát vào các công cụ tìm kiếm và các sản phẩm khác.
Để tập trung vào các nhiệm vụ chính, vào tháng 4, Google đã hợp nhất DeepMind của Hassabis và phòng thí nghiệm trí tuệ nhân tạo chính của Google, Google Brain, thành Google DeepMind.
Đối với đội mới sau khi phù hợp, Haasabis rõ ràng là rất tự tin. Ông nói, nhóm mới tập hợp hai lực lượng đóng vai trò quan trọng đối với những tiến bộ gần đây của trí tuệ nhân tạo.
“Nếu bạn nhìn vào vị trí của chúng ta trong lĩnh vực trí tuệ nhân tạo, bạn sẽ tin rằng 80% hoặc 90% sự đổi mới trong tương lai sẽ đến từ một trong hai nhóm. Cả hai nhóm đều đã tạo ra những kết quả cực kỳ tốt trong mười năm qua.”
Ý TƯỞNG MỚI
Đào tạo một mô hình ngôn ngữ lớn như GPT-4 của OpenAI yêu cầu cung cấp cho “Transformer” một tập dữ liệu lớn được tuyển chọn từ sách, trang web và các nguồn khác.
Transformer sử dụng các mẫu trong dữ liệu đào tạo để dự đoán chính xác mọi chữ cái và từ sẽ xuất hiện trong văn bản tiếp theo.
Cơ chế có vẻ đơn giản này rất hiệu quả trong việc trả lời các câu hỏi và tạo văn bản hoặc mã.
Nhưng nguyên tắc kỹ thuật tưởng chừng như đơn giản này cũng đã bị nhiều nhà lãnh đạo trong ngành hay chuyên gia trí tuệ nhân tạo chỉ trích.
Musk: Bản chất của công nghệ AI hiện nay là thống kê
LeCun: Mức độ thông minh của AI hiện nay không bằng loài chó
Bước đột phá của OpenAI trong loạt mô hình GPT dựa trên công nghệ cốt lõi của Transformer và nó tích cực sử dụng RLHF để tăng cường khả năng của mô hình.
Và DeepMind cũng có rất nhiều kinh nghiệm trong việc học tăng cường.
Điều này mang lại cho mọi người những lý do rất chính đáng để mong đợi những khả năng đổi mới mà Gemini có thể thể hiện trong tương lai.
Quan trọng hơn, Hassabis và nhóm của ông cũng sẽ cố gắng sử dụng các công nghệ cốt lõi trong các lĩnh vực trí tuệ nhân tạo khác để nâng cao khả năng của các mô hình ngôn ngữ lớn.
Sự tích lũy công nghệ của DeepMind rất phong phú.
Từ người máy đến khoa học thần kinh, họ có rất nhiều loại thiết bị trong kho vũ khí của mình để lựa chọn.
Ví dụ, các bigwigs AI như LeCun nói rằng Transformer giới hạn khả năng của mô hình ngôn ngữ quá nhiều so với phạm vi của văn bản.
Giống như con người và động vật, học hỏi từ trải nghiệm vật lý của thế giới có thể là giải pháp tốt nhất để phát triển trí tuệ nhân tạo.
Có lẽ ở Gemini, trí tuệ nhân tạo sẽ thể hiện tiềm năng theo những hướng khác.
Tương lai bất định
Hassabis được giao nhiệm vụ đẩy nhanh quá trình phát triển công nghệ trí tuệ nhân tạo của Google đồng thời quản lý các rủi ro nghiêm trọng tiềm ẩn và chưa biết.
Sự tiến bộ nhanh chóng của các mô hình ngôn ngữ lớn đã khiến nhiều chuyên gia trí tuệ nhân tạo lo lắng liệu công nghệ này có mở ra chiếc hộp Pandora và khiến xã hội loài người phải trả một cái giá không thể chấp nhận được hay không.
Hassabis cho rằng những lợi ích mà trí tuệ nhân tạo có thể mang lại cho xã hội loài người là vô cùng lớn.
Nhân loại phải tiếp tục phát triển công nghệ này.
Việc bắt buộc đình chỉ phát triển công nghệ AI là hoàn toàn không khả thi.
Nhưng điều đó không có nghĩa là Hassabis và DeepMind, do anh ta dẫn đầu, sẽ phát triển công nghệ một cách liều lĩnh.
Rốt cuộc, lý do tại sao Google và DeepMind lại trao quyền lãnh đạo công nghệ AI cho OpenAI.
Một phần lớn lý do là thái độ “có trách nhiệm quá mức” đối với sự phát triển của AI.
Cư dân mạng: không lạc quan
Nhưng đối với việc phát hành Gemini trong tương lai, xem xét thái độ bảo thủ của Google trước đây, hầu hết cư dân mạng có vẻ kém lạc quan hơn.
Bạn nghĩ khi nào mô hình giống như AGI này sẽ được phát hành?
Tôi cá 10 đô la rằng Google sẽ không bao giờ phát hành thứ này.
Nếu ai để ý đến các dự án của Google sẽ thấy họ thường khoe khoang một thời gian rồi chẳng tung ra cái gì, một năm sau thì khai tử dự án.
Tuy nhiên, cư dân mạng vẫn ghi nhận đóng góp của Google cho mô hình ngôn ngữ rộng lớn hiện nay.
Cư dân mạng A: Công nghệ mô hình ngôn ngữ lớn được OpenAI sử dụng về cơ bản là do Google phát minh ra
Cư dân mạng B: Vâng, nhưng Tesla không thể làm giàu, nhưng Edison thì có thể.
Cư dân mạng này rất lạc quan rằng DeepMind sẽ sử dụng kinh nghiệm của mình trong việc học tăng cường để tạo ra những bước đột phá trong các mô hình ngôn ngữ lớn.
Tuy nhiên, ông vẫn tin rằng Google có thể chỉ sử dụng ý tưởng cải tiến các sản phẩm hiện có của mình để thúc đẩy công nghệ này, thay vì tung ra các sản phẩm hoàn toàn mới.
Người giới thiệu:
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Đè bẹp GPT-4! CEO Google DeepMind tiết lộ: thế hệ mô hình cỡ lớn tiếp theo sẽ được tích hợp AlphaGo
**Nguồn:**Xinzhiyuan
**Hướng dẫn: **Giám đốc điều hành Hassabis của Google DeepMind đã đưa ra một tiết lộ mới: mô hình Gemini mới sẽ được kết hợp với AlphaGo và mô hình ngôn ngữ lớn và chi phí dự kiến lên tới hàng chục triệu đô la, thậm chí hàng trăm triệu.
Google, nó thực sự choáng ngợp.
Có phải Gemini huyền thoại, kết hợp các mô hình lớn giống như AlphaGo và GPT-4, cuối cùng cũng xuất hiện?
Một là hệ thống AI sử dụng học tăng cường để đánh bại nhà vô địch cờ vây con người và tạo nên lịch sử, hai là mô hình lớn đa phương thức mạnh nhất thống trị hầu hết các danh sách mô hình quy mô lớn. Sự kết hợp của hai AI gần như là bất khả chiến bại lên!
Trước đây, Sam Altman đã tiết lộ rằng chi phí tạo ra GPT-4 đã vượt quá 100 triệu USD. Dĩ nhiên là Google DeepMind không thể thua.
Quá dài để đọc phiên bản
Gemini sẽ kết hợp AlphaGo với các chức năng ngôn ngữ của các mô hình lớn như GPT-4 và khả năng giải quyết vấn đề cũng như lập kế hoạch của hệ thống sẽ được nâng cao đáng kể.
Gemini sẽ tích hợp AlphaGO bằng cách sử dụng học tăng cường và tìm kiếm cây.
Kinh nghiệm sâu rộng của DeepMind trong việc học tăng cường sẽ mang đến các tính năng mới cho Gemini.
Thuật toán tiếp theo, vượt qua ChatGPT
Theo Giám đốc điều hành OpenAI Sam Altman, GPT-5 vẫn còn vài ngày nữa mới được phát hành và việc đào tạo sẽ không bắt đầu trong ít nhất sáu tháng. Ngày phát hành của Gemini vẫn chưa được xác định, nhưng có thể trong vòng vài tháng tới.
Nhưng Giám đốc điều hành Google DeepMind Demis Hassabis nói rằng Gemini sẽ kết hợp công nghệ được sử dụng trong AlphaGo, thứ sẽ mang lại cho hệ thống khả năng lập kế hoạch và giải quyết vấn đề mới.
Năm 2016, cảnh AlphaGo đánh bại nhà vô địch cờ vây thế giới Lee Sedol vẫn còn sống động.
Gemini được cho là có khả năng đa phương thức không có trong các mô hình trước đó và rất hiệu quả trong việc tích hợp các công cụ và API. Hơn nữa, Gemini sẽ có nhiều kích cỡ khác nhau, được thiết kế để hỗ trợ những đổi mới trong tương lai về trí nhớ và lập kế hoạch.
Vào tháng 3, người ta nói rằng Gemini sẽ có một nghìn tỷ tham số như GPT-4. Hơn nữa, người ta nói rằng Gemini sẽ sử dụng hàng chục nghìn chip Google TPU AI để đào tạo.
Vào thời điểm đó, thông báo của Google là: “Mặc dù vẫn còn sớm, nhưng chúng tôi đã thấy ở Gemini khả năng đa phương thức chưa từng thấy trong các mẫu trước đây, điều này rất ấn tượng.”
Công nghệ đằng sau AlphaGo là học tăng cường, một công nghệ do DeepMind tiên phong.
Thông qua học tăng cường, AI có thể điều chỉnh hiệu suất của mình thông qua thử và sai cũng như nhận phản hồi, từ đó học cách xử lý các vấn đề rất khó, chẳng hạn như chọn cách thực hiện nước đi tiếp theo trong cờ vây hoặc trò chơi điện tử.
Ngoài ra, AlphaGo còn sử dụng phương pháp Tìm kiếm trên cây Monte Carlo (MCTS) để khám phá và ghi nhớ tất cả các nước đi có thể có trên bàn cờ.
Vào năm 2014, DeepMind đã sử dụng phương pháp học tăng cường để cho phép AI học cách chơi các trò chơi điện tử đơn giản. Thành tích này thật đáng kinh ngạc và DeepMind đã được Google mua lại trực tiếp.
Đặt cược của Google hóa ra là đúng.
Trong vài năm tiếp theo, DeepMind thỉnh thoảng đã tạo ra một kết quả gây chấn động thế giới.
Vào năm 2016, AlphaGo làm rung chuyển trái đất đã trực tiếp châm ngòi cho sự bùng nổ của deep learning và vòng đầu tiên của ngành công nghiệp AI.
Vào năm 2017, AlphaGo Zero đã nhanh chóng vượt qua AlphaGo mà không sử dụng dữ liệu của con người.
Vào năm 2020, dự đoán cấu trúc protein của AlphaFold có thể so sánh với công nghệ phòng thí nghiệm, về cơ bản giải quyết vấn đề gấp protein.
Vào tháng 6 năm nay, AlphaDev đã tạo ra một thuật toán sắp xếp mới, có thể thay đổi hoàn toàn hiệu quả và kết quả của khoa học máy tính.
So với lộ trình tổng quát hơn của OpenAI, DeepMind đã tham gia sâu vào lĩnh vực dọc trong nhiều năm.
Đâu là bước nhảy vọt tiếp theo trong các mô hình ngôn ngữ? Song Tử có thể chỉ đường cho thế hệ mô hình ngôn ngữ tiếp theo.
Đứng cuối
Rõ ràng, Gemini là chỗ dựa cuối cùng của Google.
Nhiều công nghệ do Google tiên phong, chẳng hạn như kiến trúc Máy biến áp, đã giúp cho sự bùng nổ của AI gần đây trở nên khả thi.
Do quá thận trọng trong việc phát triển và triển khai công nghệ nên tạm thời bị tụt lại phía sau trước sự cạnh tranh của ChatGPT và các AI thế hệ mới khác.
Để chống lại ChatGPT, Google đã liên tục đưa ra nhiều hành động, chẳng hạn như tung ra Bard và tích hợp AI tổng quát vào các công cụ tìm kiếm và các sản phẩm khác.
Đối với đội mới sau khi phù hợp, Haasabis rõ ràng là rất tự tin. Ông nói, nhóm mới tập hợp hai lực lượng đóng vai trò quan trọng đối với những tiến bộ gần đây của trí tuệ nhân tạo.
“Nếu bạn nhìn vào vị trí của chúng ta trong lĩnh vực trí tuệ nhân tạo, bạn sẽ tin rằng 80% hoặc 90% sự đổi mới trong tương lai sẽ đến từ một trong hai nhóm. Cả hai nhóm đều đã tạo ra những kết quả cực kỳ tốt trong mười năm qua.”
Ý TƯỞNG MỚI
Đào tạo một mô hình ngôn ngữ lớn như GPT-4 của OpenAI yêu cầu cung cấp cho “Transformer” một tập dữ liệu lớn được tuyển chọn từ sách, trang web và các nguồn khác.
Transformer sử dụng các mẫu trong dữ liệu đào tạo để dự đoán chính xác mọi chữ cái và từ sẽ xuất hiện trong văn bản tiếp theo.
Cơ chế có vẻ đơn giản này rất hiệu quả trong việc trả lời các câu hỏi và tạo văn bản hoặc mã.
Nhưng nguyên tắc kỹ thuật tưởng chừng như đơn giản này cũng đã bị nhiều nhà lãnh đạo trong ngành hay chuyên gia trí tuệ nhân tạo chỉ trích.
Bước đột phá của OpenAI trong loạt mô hình GPT dựa trên công nghệ cốt lõi của Transformer và nó tích cực sử dụng RLHF để tăng cường khả năng của mô hình.
Và DeepMind cũng có rất nhiều kinh nghiệm trong việc học tăng cường.
Điều này mang lại cho mọi người những lý do rất chính đáng để mong đợi những khả năng đổi mới mà Gemini có thể thể hiện trong tương lai.
Sự tích lũy công nghệ của DeepMind rất phong phú.
Từ người máy đến khoa học thần kinh, họ có rất nhiều loại thiết bị trong kho vũ khí của mình để lựa chọn.
Giống như con người và động vật, học hỏi từ trải nghiệm vật lý của thế giới có thể là giải pháp tốt nhất để phát triển trí tuệ nhân tạo.
Có lẽ ở Gemini, trí tuệ nhân tạo sẽ thể hiện tiềm năng theo những hướng khác.
Tương lai bất định
Hassabis được giao nhiệm vụ đẩy nhanh quá trình phát triển công nghệ trí tuệ nhân tạo của Google đồng thời quản lý các rủi ro nghiêm trọng tiềm ẩn và chưa biết.
Sự tiến bộ nhanh chóng của các mô hình ngôn ngữ lớn đã khiến nhiều chuyên gia trí tuệ nhân tạo lo lắng liệu công nghệ này có mở ra chiếc hộp Pandora và khiến xã hội loài người phải trả một cái giá không thể chấp nhận được hay không.
Hassabis cho rằng những lợi ích mà trí tuệ nhân tạo có thể mang lại cho xã hội loài người là vô cùng lớn.
Nhân loại phải tiếp tục phát triển công nghệ này.
Nhưng điều đó không có nghĩa là Hassabis và DeepMind, do anh ta dẫn đầu, sẽ phát triển công nghệ một cách liều lĩnh.
Rốt cuộc, lý do tại sao Google và DeepMind lại trao quyền lãnh đạo công nghệ AI cho OpenAI.
Một phần lớn lý do là thái độ “có trách nhiệm quá mức” đối với sự phát triển của AI.
Cư dân mạng: không lạc quan
Nhưng đối với việc phát hành Gemini trong tương lai, xem xét thái độ bảo thủ của Google trước đây, hầu hết cư dân mạng có vẻ kém lạc quan hơn.
Tuy nhiên, cư dân mạng vẫn ghi nhận đóng góp của Google cho mô hình ngôn ngữ rộng lớn hiện nay.
Cư dân mạng B: Vâng, nhưng Tesla không thể làm giàu, nhưng Edison thì có thể.
Tuy nhiên, ông vẫn tin rằng Google có thể chỉ sử dụng ý tưởng cải tiến các sản phẩm hiện có của mình để thúc đẩy công nghệ này, thay vì tung ra các sản phẩm hoàn toàn mới.
Người giới thiệu: