Trong khi đó, các chuyên gia của IBM và đại học NYU đề xuất tập trung vào an toàn, minh bạch và rủi ro của trí tuệ nhân tạo.
Lần thứ hai trong tháng này, CEO của OpenAI, Sam Altman đã đến Washington để thảo luận về trí tuệ nhân tạo với các chính trị gia Mỹ. Altman xuất hiện trước Ủy ban Tư pháp của Thượng viện Hoa Kỳ cùng với Christina Montgomery, Giám đốc Quyền riêng tư và Đáng tin cậy của IBM và Gary Marcus, Giáo sư Emeritus tại Đại học New York.
Khi Thượng nghị sĩ Louisiana John Kennedy hỏi họ nên quy định A.I như thế nào, Altman nói rằng cần thành lập một cơ quan chính phủ và giao cho nó nhiệm vụ đặt ra các tiêu chuẩn.
“Tôi sẽ thành lập một cơ quan mới để cấp phép cho bất kỳ nỗ lực nào vượt quá một mức độ nhất định về khả năng và có thể thu hồi giấy phép đó và đảm bảo tuân thủ các tiêu chuẩn an toàn,” Altman nói, thêm rằng cơ quan sắp thành lập này sẽ yêu cầu các kiểm toán độc lập về bất kỳ công nghệ A.I nào.
“Không chỉ từ công ty hoặc cơ quan, mà còn từ các chuyên gia có thể nói mô hình đó tuân thủ hoặc không tuân thủ các ngưỡng an toàn và trạng thái này và các phần trăm hiệu suất trên câu hỏi X hoặc Y,” ông nói.
Trong khi Altman nói rằng chính phủ nên quy định công nghệ, ông không đồng ý với ý tưởng tự mình dẫn đầu cơ quan đó. “Tôi yêu công việc hiện tại của mình,” ông nói.
Sử dụng Cục Quản lý Thực phẩm và Dược phẩm Hoa Kỳ làm ví dụ, Giáo sư Marcus nói rằng cần có một đánh giá an toàn cho trí tuệ nhân tạo tương tự như cách thuốc được đánh giá trước khi được phép ra thị trường.
“Nếu bạn sẽ giới thiệu một sản phẩm cho 100 triệu người, ai đó phải giám sát nó,” Giáo sư Marcus nói thêm.
Cơ quan đó, ông nói, nên linh hoạt và có khả năng theo dõi những gì đang diễn ra trong ngành. Nó sẽ tiền xem xét các dự án và cũng xem xét chúng sau khi chúng đã được phát hành cho thế giới – với quyền lực thu hồi công nghệ nếu cần thiết.
“Điều này liên quan đến tính minh bạch và khả năng giải thích trong trí tuệ nhân tạo,” Montgomery của IBM bổ sung. “Chúng ta cần xác định các sử dụng có rủi ro cao nhất, yêu cầu các đánh giá tác động và tính minh bạch, yêu cầu các công ty hiển thị công việc của họ và bảo vệ dữ liệu được sử dụng để đào tạo trí tuệ nhân tạo ban đầu.”
Các chính phủ trên toàn thế giới tiếp tục phải đối mặt với sự bùng nổ của trí tuệ nhân tạo trong đời sống hàng ngày. Tháng 12, Liên minh châu Âu đã thông qua một đạo luật trí tuệ nhân tạo để thúc đẩy các “hộp cát thử nghiệm” được thành lập bởi các cơ quan công quyền để thử nghiệm trí tuệ nhân tạo trước khi phát hành.
“Để đảm bảo sự phát triển trí tuệ nhân tạo trung tâm và có đạo đức ở châu Âu, các nghị viên đã chấp thuận các quy tắc về minh bạch và quản lý rủi ro mới cho các hệ thống trí tuệ nhân tạo,” Quốc hội châu Âu viết.
Vào tháng 3, vì lo ngại về quyền riêng tư, Ý đã cấm ChatGPT của OpenAI. Lệnh cấm đã được dỡ bỏ vào tháng 4 sau khi OpenAI thay đổi cài đặt bảo mật để cho phép người dùng không tham gia việc sử dụng dữ liệu của họ để huấn luyện trò chuyện và tắt lịch sử trò chuyện của họ.
“Với câu hỏi liệu chúng ta có cần một cơ quan độc lập, tôi nghĩ chúng ta không muốn làm chậm tiến trình quy định để giải quyết các rủi ro thực sự ngay bây giờ,” Montgomery tiếp tục, thêm rằng các cơ quan quy định đã tồn tại có thể quy định trong lĩnh vực của họ.
Cô cũng thừa nhận các cơ quan quy định đó thiếu nguồn lực và quyền lực cần thiết.
“Trí tuệ nhân tạo nên được quy định tại điểm rủi ro, về cơ bản,” Montgomery nói. “Và đó là điểm mà công nghệ gặp gỡ xã hội.”
Tin Tức Bitcoin tổng hợp