Đồng sáng lập Ethereum, Vitalik Buterin, đã cảnh báo về những rủi ro liên quan đến AI siêu thông minh và sự cần thiết của một cơ chế phòng thủ mạnh mẽ.
Bình luận của Buterin được đưa ra trong bối cảnh sự phát triển nhanh chóng của trí tuệ nhân tạo khiến lo ngại về an toàn AI tăng đáng kể.
Kế Hoạch Điều Chỉnh AI Của Buterin: Trách Nhiệm, Nút Tạm Dừng, và Kiểm Soát Quốc Tế
Theo một bài viết trên blog vào ngày 5 tháng 1, Vitalik Buterin đã đưa ra ý tưởng về ‘d/acc hay thúc đẩy phòng thủ,’ nhấn mạnh công nghệ nên được phát triển để bảo vệ hơn là gây hại. Đây không phải lần đầu tiên Buterin thảo luận về những rủi ro liên quan đến trí tuệ nhân tạo.
“Một trong những cách mà AI có thể làm xấu đi tình hình là cách tồi tệ nhất có thể: nó có thể gây ra sự tuyệt chủng của loài người,” Buterin nói vào năm 2023.
Buterin tiếp tục phát triển những lý thuyết của mình từ năm 2023. Ông cho rằng siêu trí tuệ có thể xuất hiện chỉ trong vài năm tới.
“Có khả năng chúng ta có lộ trình ba năm cho AGI và thêm ba năm cho siêu trí tuệ. Vì vậy, nếu không muốn thế giới bị phá hủy hoặc rơi vào cái bẫy không thể đảo ngược, chúng ta không chỉ cần thúc đẩy điều tốt mà cũng phải làm chậm điều xấu,” Buterin viết.
Để giảm thiểu rủi ro liên quan đến AI, Buterin đề xuất tạo ra các hệ thống AI phi tập trung gắn kết chặt chẽ với quá trình ra quyết định của con người. Việc đảm bảo AI vẫn chỉ là công cụ của con người giúp giảm thiểu nguy cơ gây ra hậu quả thảm khốc.
Buterin giải thích rằng quân đội có thể là những tác nhân chịu trách nhiệm trong kịch bản ‘ngày tận thế AI’. Việc sử dụng AI trong quân sự đang gia tăng trên toàn cầu, như đã thấy ở Ukraine và Gaza. Buterin cũng cho rằng bất kỳ quy định nào liên quan đến AI có thể sẽ miễn áp dụng cho quân đội, khiến họ trở thành mối đe dọa nghiêm trọng.
Đồng sáng lập Ethereum đã đưa ra kế hoạch điều chỉnh việc sử dụng AI. Ông nói rằng bước đầu tiên để tránh rủi ro liên quan đến AI là làm cho người dùng chịu trách nhiệm.
“Dù mối liên hệ giữa cách thức phát triển mô hình và cách thức sử dụng cuối cùng thường không rõ ràng, người dùng quyết định chính xác cách AI được sử dụng,” Buterin giải thích, nhấn mạnh vai trò của người dùng.
Nếu quy tắc trách nhiệm không hiệu quả, bước tiếp theo là triển khai các “nút tạm dừng mềm” cho phép điều chỉnh AI làm chậm tiến độ của các phát triển tiềm ẩn nguy hiểm.
“Mục tiêu là có khả năng giảm lượng computer có sẵn trên toàn thế giới khoảng 90-99% trong 1-2 năm vào khoảng thời gian quan trọng, để có thêm thời gian chuẩn bị cho nhân loại.”
Ông nói rằng nút tạm dừng này có thể được thực hiện thông qua xác minh và đăng ký vị trí AI.
Một cách tiếp cận khác là kiểm soát phần cứng của AI. Buterin giải thích rằng phần cứng AI có thể được trang bị chip để kiểm soát nó.
Chip này sẽ cho phép hệ thống AI hoạt động chỉ khi nhận được ba chữ ký từ các tổ chức quốc tế hàng tuần. Ít nhất một trong số các tổ chức này không được có liên hệ với quân sự.
Dẫu vậy, Buterin thừa nhận rằng các chiến lược của mình có lỗ hổng và chỉ là ‘biện pháp trung gian tạm thời.’