Nhà sáng lập ASI Alliance, Ben Goertzel cho biết phiên bản alpha của OpenCog Hyperon — hệ thống trí tuệ nhân tạo tổng hợp mà ông đã phát triển trong hơn hai thập kỷ — đã có phần “tự nhận thức được” ở mức độ nào đó.
Goertzel cũng chia sẻ với Tạp chí rằng ông tin rằng OpenAI có lẽ đã tránh xa việc biến mô hình “rất ấn tượng” mới của họ, o1, trở thành một tác nhân tự động vì lo ngại rằng điều đó sẽ bị coi là “rủi ro và nguy hiểm” và gây ra sự trấn áp từ các nhà quản lý.
Liên minh Trí tuệ Nhân tạo Siêu cấp (ASI) được thành lập vào tháng 3 năm nay, kết hợp dự án của Goertzel, SingularityNET, với Ocean Protocol và FetchAI của Humayun Sheikh, cựu nhân viên của DeepMind.
Tuần này, 96% cử tri của CUDOS đã thông qua việc sáp nhập mạng phần cứng đám mây phi tập trung với ASI. Việc sáp nhập này sẽ tăng cường khả năng tính toán cho các kế hoạch của Goertzel để mở rộng OpenCog Hyperon, hệ thống AGI mà ông đã làm việc từ năm 2001 và khởi động như một khung AI mã nguồn mở vào năm 2008.
OpenCog Hyperon và tương lai của trí tuệ nhân tạo tổng hợp
Ba năm trước, dự án đã bắt đầu xây dựng lại toàn bộ OpenCog để “theo đuổi tính mở rộng khổng lồ, và chúng tôi đã tiến một khoảng lớn trong quá trình đó,” ông nói. Bản Alpha được khởi động vào tháng 4, và mặc dù hiện tại nó rất chậm và “có những thay đổi đột phá” dự kiến, nhóm đang làm việc để “tăng tốc độ một cách đại trà. Tôi nghĩ rằng việc đó sẽ hoàn thành vào mùa thu này. Và như vậy, có nghĩa là năm tới, chúng tôi sẽ cố gắng hướng tới mục tiêu xây dựng AGI trên cơ sở hạ tầng Hyperloop mới.”
Goertzel nói rằng hệ thống này tiếp cận khác với các mô hình ngôn ngữ lớn (LLM) như GPT-4 và o1.
“Hệ thống Hyperon không chỉ là một chatbot. Nó được kiến trúc như một tác nhân tự động có mục tiêu riêng và tự nhận thức, cố gắng biết mình là ai và bạn là ai, và nó đang cố gắng đạt được gì trong tình huống cụ thể. Vì vậy, nó thực sự là một tác nhân tự động, tự nhận thức thay vì chỉ là hệ thống trả lời câu hỏi.”
Hệ thống AGI cần tự nhận thức để tự động hóa
Đợi đã, Goertzel đang nói rằng mô hình hiện tại là tự nhận thức?
“Ý tôi khi nói tự nhận thức là từ ban đầu, thậm chí các phiên bản hiện tại, có nghĩa là nó có mô hình của chính mình. Nó có mô hình về bạn là ai. Nó có các mục tiêu cụ thể mà nó đang cố gắng đạt được trong tình huống. Nó biết cách nó liên quan đến tình huống đó và điều nó đang cố gắng làm. Và hệ thống kiểu ChatGPT không thực sự làm điều đó đúng.
Hệ thống này kết hợp giữa máy suy luận logic, học tập chương trình tiến hóa và mạng thần kinh sâu được triển khai trong biểu đồ kiến thức động, tự điều chỉnh và sửa đổi. (GPT-4 giải thích điều đó là gì dưới đây).
Thú vị là, Goertzel nói rằng việc thiếu một mô hình thế giới giải thích lý do tại sao không có tác nhân AI tự động nào được xây dựng cho đến nay thực sự hoạt động. Bạn không thể chỉ lấy một “hệ thống trả lời câu hỏi” và bảo nó “bạn là một tác nhân tương tác với thế giới.”
o1 của OpenAI và rủi ro từ quy định
Bất chấp sự thổi phồng xung quanh hành vi giống tác nhân tự động của OpenAI và “Strawberry,” Goertzel tin rằng OpenAI cố tình tránh con đường đó với mô hình o1 được phát hành.
“Nó đang cố gắng trở nên giỏi về lý luận và logic, và nó rất giỏi về điều đó. Tôi yêu thích nó. Nó rất ấn tượng. Nó không cố gắng trở thành một tác nhân tự động. Điều đó là một cái gì đó khác nhau có mục đích. Tôi nghĩ họ không muốn làm điều đó vì nó sẽ trông rủi ro và nguy hiểm, và các nhà quản lý sẽ cố gắng trấn áp họ. Điều cuối cùng họ muốn làm là chế tác một tác nhân tự động.”
Đó là một trong những lợi ích của việc phát triển hệ thống mã nguồn mở phi tập trung. Các nhà quản lý không thể “trấn áp” nó theo cách tương tự.
“Khi chúng tôi khởi động các hệ thống AI tiên tiến, chúng sẽ chạy trên các máy trải đều trên mọi lục địa, ở 50 hoặc 100 quốc gia khác nhau,” ông nói. “Vì vậy, nếu một quốc gia quyết định rằng OpenCog Hyperon là bất hợp pháp, đó chỉ là một phần nhỏ của mạng lưới.”
Kể từ cuộc phỏng vấn của chúng tôi tại Token2049 tuần trước, CEO của OpenAI, Sam Altman đã phát hành một bài luận vẽ ra một bức tranh về một tương lai không tưởng gọi là “Thời đại Trí tuệ” do AGI mang lại. Goertzel cũng hy vọng rằng AGI tốt mà ông đang cố gắng xây dựng sẽ hữu ích đến mức không ai muốn cấm nó.
“Tôi tin rằng điều này có thể là một thứ gì đó thông minh hơn nhiều so với những gì Big Tech đang làm. Vì vậy, nếu chúng tôi có thể đạt được một thứ gì đó thông minh hơn nhiều so với mô hình o1 của OpenAI bằng cách sử dụng Opencog Hyperon, và chúng tôi có thể triển khai nó trên một mạng lưới phi tập trung, thì thế giới sẽ nhảy vào đó như cách họ đã nhảy vào ChatGPT, và họ sẽ sử dụng mạng lưới phi tập trung, chỉ vì nó là phần cơ sở hạ tầng nền.”
Thách thức và lợi thế của các hệ thống AI phi tập trung
Căng thẳng tại trung tâm của các dự án AI phi tập trung là việc dễ dàng và rẻ hơn nhiều để chạy các mô hình lớn sử dụng thiết bị tập trung.
Việc huấn luyện mạng thần kinh và các mô hình trong phần cứng phi tập trung hiện tại là không khả thi, mặc dù Goertzel nói rằng nghiên cứu mới cho thấy điều đó có khả năng.
Nhưng ông nói rằng lý luận logic và học tập tiến hóa thông qua các thuật toán “chạy rất tự nhiên trên một mạng lưới máy tính phi tập trung.”
Kế hoạch dường như là tạo động lực cho mạng lưới bằng một số cơ sở tập trung trước khi thêm vào tính toán với mạng lưới phi tập trung. SingularityNET và Fetch đã chi “một phần đáng kể” trong số 100 triệu Token ASI (hiện đang được đổi tên từ FET) để mua GPU nhằm xây dựng siêu máy tính. Họ sẽ chi tiêu phần còn lại khi giá Token hồi phục.
“Chúng tôi muốn có điều đó như một dạng trung tâm ban đầu của mạng lưới phi tập trung để khởi đầu nó,” ông nói. Chúng tôi muốn cung cấp dịch vụ lưu trữ cho những người muốn đặt các tác nhân AI lên SingularityNET.” Tầm nhìn là một giải pháp đám mây thân thiện với Web3 như Hugging Face.
“Các nhà phát triển AI chỉ muốn cách nhanh nhất, rẻ nhất, dễ nhất để cung cấp một chức năng cụ thể,” ông giải thích. “Nếu bạn muốn nó là phi tập trung, bằng cách nào đó bạn cần làm cho nó hấp dẫn hơn đối với người dùng cuối vì những lý do khác ngoài triết lý của sự phi tập trung.”
Giữa bốn dự án trong Liên minh, Goertzel ước tính họ sẽ sớm có “một vài trăm triệu USD phần cứng tính toán chuyên dụng.” Tính toán bổ sung có thể được rút ra từ SingularityNET spin-off NuNet, sử dụng công suất CPU và GPU nhàn rỗi từ các máy tính kết nối, và Hypercycle, một nền tảng kết nối dịch vụ AI.
Năng lượng tái tạo để phục vụ hệ thống AI phi tập trung
Bryan Pellegrino của LayerZero đã dành một thập kỷ làm việc trong AI và phát biểu với Tạp chí trong Tuần lễ Blockchain Hàn Quốc rằng kinh nghiệm của ông với giá điện ảnh hưởng đến lợi nhuận khai thác Bitcoin của ông đã để lại cho ông sự lo ngại lớn đối với AI phi tập trung.
“Rất khó để có được quy mô kinh tế cần thiết cho tính toán, hoặc giảm chi phí phần cứng cơ bản, trong một thế giới khi bạn đang cạnh tranh với Google và AWS và tất cả những người khác, và chỉ cần xem cách họ làm hệ thống làm mát và mọi thứ, từ giá điện cho đến cuối cùng. Vì vậy, tôi luôn bi quan về hầu hết các phân đoạn khác nhau trong giao thoa này.”
Nhưng Goertzel nói giá điện không so sánh được với chi phí của thiết bị, vì vậy “tôi không đồng ý rằng đó là một sự không khả thi.”
Tuy nhiên, ông bổ sung rằng SingularityNET và Hypercycle đang khám phá cơ hội để hưởng lợi từ năng lượng tái tạo giá rẻ dựa trên nhu cầu năng lượng lớn của AI.
“Chúng tôi đã nói chuyện với các quan chức trong chính phủ Ethiopia về việc đặt một loạt máy chủ gần đập ở đó,” ông nói. “Toufi (Saliba, CEO của Hypercycle) đang thảo luận với chính phủ Paraguay về việc đặt một loạt trung tâm dữ liệu AI và trang trại máy chủ gần đập ở biên giới Brazil-Paraguay. Ý tôi là, đó thực sự là một điều để có được nhiều gigawatt năng lượng đi thẳng vào trung tâm tính toán AI của bạn bằng cách đặt trung tâm máy tính của bạn kế bên đập với một dây cáp béo đến đó.”