Trí tuệ nhân tạo (AI) đang tiến bộ với tốc độ đáng kể. Các nhà phát triển hàng đầu đang đạt được những bước tiến quan trọng trong việc nâng cao khả năng hiểu các truy vấn phức tạp và cung cấp các phản hồi thấu đáo hơn, có lý hơn.
Điều này được nhấn mạnh trong thông báo ngày 12 tháng 9 từ OpenAI, những người sáng tạo ra mô hình ChatGPT nổi tiếng, về mô hình mới “Strawberry” của họ.
Sự phát triển này, còn được biết đến với tên gọi Chain mô hình OpenAI o1, sẽ cho phép con người suy nghĩ nhiều hơn về các vấn đề trước khi trả lời, “giống như một người thực sự.”
Chúng tôi đang phát hành một phiên bản xem trước của OpenAI o1—một Chain mô hình AI mới được thiết kế để dành nhiều thời gian suy nghĩ trước khi phản hồi.
Những mô hình này có thể lý luận thông qua các nhiệm vụ phức tạp và giải quyết các vấn đề khó hơn các mô hình trước đây trong khoa học, lập trình, và toán học. https://t.co/peKzzKX1bu
— OpenAI (@OpenAI) September 12, 2024
Theo nhà phát triển, các mô hình cũng sẽ có khả năng “tỉ mỉ hoá quá trình suy nghĩ của mình, thử nghiệm các chiến lược khác nhau và nhận ra lỗi sai.”
Dù AI chắc chắn không đang chiếm lĩnh thế giới, cũng như không phải là mục tiêu của những người phát triển công nghệ này, sự tiến bộ nhanh chóng của công nghệ đã khiến các nhà lập pháp lo ngại về khả năng kiểm soát những mô hình này nếu chúng hoạt động ngoài tầm kiểm soát và việc thực hiện các biện pháp an toàn trong giai đoạn phát triển.
Những dự luật trên bàn nghị sự
Trong tuần qua, các nhà lập pháp California đã tiếp tục thông qua những dự luật liên quan đến AI ảnh hưởng đến cư dân và nhà phát triển tại California.
Điều này bao gồm Dự luật Hội đồng 1836, cấm việc tạo ra các bản sao AI không được phép của các nhân vật đã qua đời mà không có sự đồng ý trước để bảo vệ quyền và hình ảnh của các nghệ sĩ.
Tuy nhiên, một trong những dự luật gây tranh cãi nhất trong giới công nghiệp là Dự luật Thượng viện (SB)-1047, còn được biết đến với tên gọi “Đạo luật Đổi mới An toàn và Bảo mật cho Các Mô hình AI Tiên phong.”
Nếu được thông qua, dự luật này sẽ chủ yếu ảnh hưởng đến các nhà phát triển AI lớn như OpenAI, Google và Microsoft, những đơn vị có nguồn lực để phát triển các mô hình AI yêu cầu hơn 10^26 phép tính nguyên hoặc phép tính dấu phẩy động (FLOP) và chi phí hơn 100 triệu USD.
Các nhà phát triển sẽ phải huấn luyện và tinh chỉnh các mô hình để thực hiện các tính năng an toàn được nêu trong dự luật, bao gồm khả năng tắt mô hình AI, tạo và duy trì một quy trình an toàn bằng văn bản, bảo đảm kiểm toán hàng năm từ bên thứ 3, và nộp các bản báo cáo tuân thủ và sự cố cho Tổng chưởng lý California.
Luật này đang vấp phải sự phản đối từ các nhà phát triển mọi quy mô trong ngành, họ cho rằng nó cản trở sự đổi mới. Chúng tôi đã trò chuyện với Dina Blikshteyn, đối tác tại công ty luật Haynes Boone, để hiểu rõ hơn về điều này có thể xảy ra như thế nào.
Tác động đến các nhà phát triển
Blikshteyn cho biết dự luật cũng có thể mở rộng đến các nhà phát triển nhỏ điều chỉnh các mô hình AI với sức mạnh tính toán lớn hơn hoặc bằng ba lần 10^25 phép tính nguyên hoặc phép tính dấu phẩy động (FLOP) và có khả năng tiếp cận 10 triệu USD.
“Dự luật nhằm ngăn chặn những thảm họa do các mô hình AI gây ra, đặc biệt thông qua việc thực hiện các khả năng tắt máy,” cô nói.
“Tuy nhiên, nó có thể không hoàn toàn loại bỏ các rủi ro, vì một mô hình AI có thể kích hoạt một phản ứng dây chuyền với hậu quả nghiêm trọng ngay cả sau khi bị tắt.”
Cô cũng chỉ ra rằng:
“Mặc dù mục đích của dự luật là tích cực, các yêu cầu về quy trình an toàn, kiểm toán và báo cáo tuân thủ có thể bị coi là quá tải, có thể đặt ra các yêu cầu tiết lộ thông tin và quan liêu nặng nề, có thể cản trở sự đổi mới trong ngành công nghiệp AI của California.”
Hiện tại Hoa Kỳ không có bất kỳ khung pháp lý liên bang nào để điều chỉnh các kết quả của mô hình AI. Tuy nhiên, Blikshteyn lưu ý rằng các tiểu bang như California và Colorado đang ban hành các quy định của riêng mình.
Các quy định trên bàn làm việc của Thống đốc Gavin Newsom sẽ ảnh hưởng đến những người dân California huấn luyện và tiếp cận các mô hình AI được bao phủ.
“Các công ty AI lớn hơn sẽ có nhiều nhân lực hơn để xử lý các yêu cầu của dự luật,” cô lưu ý, “điều này có thể được xem là một gánh nặng với nguồn lực của các công ty nhỏ hơn.”
“Mặc dù các công ty AI lớn khó có khả năng rời khỏi California, sự thay đổi trong các luật bang và thiếu sự giám sát liên bang có thể thúc đẩy các nhà phát triển nhỏ hơn chuyển địa điểm hoặc tiến hành công việc AI ở những bang có ít quy định hơn về quản lý AI.”
California dẫn đầu trong luật pháp
Tuy nhiên, Blikshteyn nhấn mạnh điều mà nhiều người trong ngành công nghiệp nhận thấy là một thực tế: “Luật pháp ở cấp liên bang thiết lập các yêu cầu cơ bản cho các mô hình AI mạnh mẽ sẽ có lợi cho cả người tiêu dùng và nhà phát triển. Nó cũng sẽ cung cấp một tiêu chuẩn cho tất cả các bang về những yêu cầu đó là gì.”
SB-1047 đã được gửi đến Thống đốc Newsom vào ngày 9 tháng 9 và hiện vẫn đang chờ quyết định. Newsom đã nhận xét về dự luật này rằng ông ấy đang làm việc để “đưa ra các quy định hợp lý nhằm hỗ trợ việc chấp nhận rủi ro, nhưng không phải là sự liều lĩnh.” Tuy nhiên, ông cũng đã bày tỏ mối quan ngại về tác động tiềm tàng đối với khả năng cạnh tranh.
Với việc California là một nhà lãnh đạo toàn cầu trong đổi mới công nghệ, các quyết định pháp lý liên quan đến AI của bang này là điều mà cả thế giới đang theo dõi với sự lo lắng.