Những con chip TPU v5e của Google giúp công ty khởi nghiệp Anthropic nắm lợi thế cạnh tranh với sự tăng cường tính toán AI.
Google đang mở rộng hợp tác với Anthropic, công ty đứng sau ChatGPT cạnh tranh với AI Claude, bằng cách cung cấp những con chip máy tính chuyên dụng đặc biệt giúp nâng cao hiệu suất của Claude.
Hợp tác này được củng cố bằng việc Google đầu tư một số tiền lớn cho Anthropic. Như đã đưa tin trước đây, Google đã mua 10% cổ phần của Anthropic với giá 300 triệu USD và đưa ra cam kết tiếp tục đầu tư, tổng cộng lên tới 500 triệu USD—với cam kết thêm 1.5 tỷ USD đầu tư bổ sung nữa.
“Anthropic và Google Cloud có cùng các giá trị khi phát triển trí tuệ nhân tạo—nó cần được thực hiện một cách táo bạo và có trách nhiệm,” CEO Google Cloud, Thomas Kurian, cho biết trong một thông cáo chính thức. “Sự mở rộng hợp tác này với Anthropic, dựa trên nhiều năm đồng hành cùng nhau, sẽ đưa trí tuệ nhân tạo đến với nhiều người một cách an toàn và bảo mật hơn, và cũng thể hiện ví dụ khác về cách mà các công ty khởi nghiệp trí tuệ nhân tạo đang nhanh chóng phát triển dựa trên Google Cloud.”
Anthropic sẽ sử dụng đơn vị xử lý Tensor thế hệ thứ 5 (TPU) của Google Cloud để thực hiện quy luật trí tuệ nhân tạo, quá trình mà một mô hình trí tuệ nhân tạo đã được huấn luyện đưa ra dự đoán hoặc quyết định dựa trên dữ liệu đầu vào mới.
Những bước tiến công nghệ như vậy của các nhà lãnh đạo công nghệ nhấn mạnh sự cạnh tranh khốc liệt và những vấn đề quan trọng trong việc phát triển trí tuệ nhân tạo phức tạp hơn. Mối liên hệ nổi bật nhất trong lĩnh vực trí tuệ nhân tạo là mối quan hệ giữa Microsoft và OpenAI, với 10 tỷ USD trên bàn đàm phán.
Nhưng những phát triển công nghệ này có ý nghĩa gì với các chatbot và công cụ trí tuệ nhân tạo mà mọi người sử dụng hàng ngày? Nó dựa vào sự khác biệt cơ bản giữa các nguồn lực tính toán của trí tuệ nhân tạo: GPU và TPU.
Đơn vị xử lý đồ họa (GPU), lâu nay đã là nguồn lực cốt lõi cho các tác vụ tính toán trí tuệ nhân tạo, có khả năng xử lý nhiều hoạt động cùng một lúc. Chúng linh hoạt và được sử dụng rộng rãi, không chỉ trong trò chơi và khả năng hiển thị đồ họa mà còn trong việc tăng tốc các tác vụ học sâu.
Trái với điều đó, đơn vị xử lý Tensor (TPU) là sáng tạo của Google, được thiết kế tùy chỉnh để tăng tốc quy trình học máy. TPU tối ưu công việc cụ thể, mang lại thời gian huấn luyện nhanh hơn và hiệu quả năng lượng, điều quan trọng khi xử lý các tập dữ liệu lớn mà LLM như Claude của Anthropic yêu cầu.
Sự khác biệt giữa những bộ xử lý này là rõ ràng: GPU (giống như những người được OpenAI sử dụng) cho phạm vi ứng dụng rộng, nhưng TPU tập trung vào hiệu suất học máy. Điều này cho thấy rằng đối với các công ty khởi nghiệp như Anthropic, dựa vào các lượng dữ liệu lớn để tinh chỉnh mô hình của họ, TPU của Google có thể mang lại lợi thế thuyết phục, có thể dẫn đến những tiến bộ nhanh hơn và giao tiếp AI tinh vi hơn.
Tuy nhiên, những tiến bộ gần đây của OpenAI, đặc biệt là mô hình GPT-4 Turbo, thách thức bất kỳ sự dẫn đầu của Anthropic nào. Mô hình mới Turbo có thể xử lý 128K context tokens, đó là một bước tiến đáng kể so với mốc 8K trước đó và là một cú sốc đối với khả năng 100K của Claude của Anthropic trước đó.
Tuy nhiên, cuộc chiến không phải không có sự phức tạp. Những TPU mạnh mẽ này có thể giúp Anthropic phát triển một LLM mạnh mẽ hơn và nhanh hơn. Nhưng cửa sổ ngữ cảnh lớn hơn, mặc dù thú vị, là một con dao hai lưỡi—những đề xuất lớn đó thường dẫn đến hiệu suất kém dưới các hoàn cảnh hiện tại.
Trong cuộc đua trí tuệ nhân tạo ngày càng nóng, Anthropic có thể giữ giấy mời vàng nhờ sự hậu thuẫn đáng kể của Google. Nhưng họ phải chơi đúng chiến thuật vì OpenAI không chỉ nằm nghỉ trên chiến thắng của mình—họ cũng đang trên đường phát triển nhanh với sự hỗ trợ của Microsoft.
Tin Tức Bitcoin tổng hợp