Ý kiến của: Merav Ozair, Tiến sĩ
Năm 2025 sẽ là “năm của đại lý AI”, CEO Nvidia Jenson Huang dự đoán vào tháng 11 năm 2024. Điều này sẽ mở đường cho một kỷ nguyên mới: nền kinh tế đại lý.
Huang mô tả các đại lý AI là “nhân viên kỹ thuật số” và dự đoán rằng một ngày, Nvidia sẽ có 50K nhân viên con người và hơn 100 triệu đại lý AI, và mọi tổ chức có thể thấy sự gia tăng tương tự về số lượng lao động AI.
Nhưng việc mô tả các đại lý AI là “công nhân kỹ thuật số” quá đơn giản và không đánh giá đúng ảnh hưởng của công nghệ này.
Tiến hóa của đại lý AI
Chúng ta đã xem công nghệ như một công cụ, nhưng AI đại lý vượt xa một công cụ đơn thuần. Nó là một sự thay đổi nền tảng trong cách chúng ta tương tác với công nghệ.
Không giống như AI tạo sinh (GenAI), đòi hỏi sự chỉ dẫn từ con người và không thể tự mình xử lý các suy luận phức tạp, AI đại lý sử dụng mạng lưới gồm nhiều đại lý học hỏi, thích nghi và làm việc cùng nhau. Các đại lý AI có thể tương tác và học hỏi lẫn nhau, có khả năng ra quyết định tự động, học từ kinh nghiệm, thích nghi với tình hình thay đổi và lên kế hoạch hành động phức tạp nhiều bước, đóng vai trò như một đối tác chủ động thay vì chỉ là công cụ phản ứng để thực hiện các lệnh được đặt trước.
Mọi người hoặc mọi thứ đều có thể có một đại lý AI hoạt động tự chủ thay mặt họ. Con người có thể sử dụng chúng để hỗ trợ trong cuộc sống hàng ngày hoặc công việc chuyên nghiệp, trong khi các tổ chức có thể dùng chúng như trợ lý hoặc một mạng lưới công nhân. Bạn cũng có thể tưởng tượng có một đại lý AI cho một đại lý AI khác. Ứng dụng của AI đại lý là vô hạn và chỉ bị giới hạn bởi trí tưởng tượng của chúng ta.
Điều này rất hấp dẫn và lợi ích có thể vô cùng lớn, nhưng rủi ro cũng tương tự. Các đại lý AI, đặc biệt là các hệ thống đa đại lý, không chỉ làm nghiêm trọng thêm nhiều lỗ hổng đạo đức, pháp lý, an ninh và các lỗ hổng khác mà chúng ta đã trải qua với GenAI, mà còn tạo ra những lỗ hổng mới.
Rủi ro mới của các đại lý AI
Các mô hình AI dựa vào dữ liệu. Với AI đại lý, nhu cầu và sự phụ thuộc vào dữ liệu cá nhân và dữ liệu độc quyền tăng lên theo cấp số nhân, cũng như các lỗ hổng và rủi ro. Sự phức tạp của các hệ thống này đặt ra tất cả các câu hỏi về quyền riêng tư.
Quyền riêng tư
Làm thế nào để chúng ta đảm bảo rằng các nguyên tắc bảo vệ dữ liệu như giảm thiểu dữ liệu và hạn chế mục đích được tôn trọng? Làm sao chúng ta tránh dữ liệu cá nhân bị rò rỉ trong một hệ thống AI đại lý? Người dùng có thể thực hiện quyền của dữ liệu, chẳng hạn quyền được quên, nếu họ quyết định ngừng sử dụng đại lý AI? Liệu việc chỉ giao tiếp với “một” đại lý và mong đợi nó “phát sóng” tới toàn bộ mạng lưới đại lý có đủ không?
An ninh
Các đại lý AI có thể kiểm soát thiết bị của chúng ta, và chúng ta phải xác định các vấn đề tiềm năng nếu các đại lý này hoạt động trên máy tính, điện thoại thông minh hoặc bất kỳ thiết bị IoT nào của chúng ta.
Nếu có bất kỳ lỗ hổng an ninh nào, nó sẽ không bị giới hạn trong một ứng dụng bị xâm nhập. “Cuộc sống toàn bộ của bạn” — tức là tất cả thông tin trên tất cả các thiết bị và nhiều hơn nữa — sẽ bị xâm nhập. Điều này đúng với cả cá nhân và tổ chức. Hơn thế nữa, những lỗ hổng an ninh này có thể “lan ra” các hệ thống đại lý AI khác mà đại lý “bị xâm nhập” của bạn đã tương tác.
Giả sử một đại lý (hoặc một nhóm đại lý) tuân theo các biện pháp bảo mật nghiêm ngặt. Giả sử họ tương tác với những đại lý khác (hoặc một nhóm đại lý) đã bị xâm nhập — ví dụ do thiếu biện pháp an ninh mạng thích hợp. Làm sao chúng ta đảm bảo rằng các đại lý bị xâm nhập sẽ không hành động như một “virus” để lây nhiễm tất cả các đại lý họ tương tác?
Hậu quả của một kịch bản như vậy có thể rất tàn phá. “Virus” này có thể lan truyền chỉ trong vài mili giây và có khả năng sụp đổ toàn bộ hệ thống trên toàn quốc gia. Càng phức tạp và gắn kết những kết nối/tương tác, nguy cơ sụp đổ càng cao.
Thiên vị và công bằng
Chúng ta đã thấy nhiều ví dụ về các hệ thống GenAI bị thiên vị. Trong bối cảnh các đại lý AI, bất kỳ thiên vị hiện có nào sẽ được truyền qua chuỗi thực hiện nhiệm vụ, làm tăng tác động.
Làm sao chúng ta ngăn chặn phân biệt đối xử hay thi hành các văn bản pháp luật đảm bảo sự công bằng khi thiên vị đã “được tích hợp” vào đại lý AI? Làm sao đảm bảo các đại lý AI sẽ không làm nghiêm trọng thêm thiên vị có sẵn được xây dựng trong một mô hình ngôn ngữ lớn (LLM) cụ thể?
Minh bạch
Mọi người muốn biết về quá trình ra quyết định của đại lý. Các công ty phải đảm bảo rằng các tương tác AI là minh bạch và cho phép người dùng can thiệp khi cần thiết hoặc chọn không tham gia.
Trách nhiệm
Trong các hệ thống đại lý và chuỗi thực thi, làm sao chúng ta có thể định nghĩa trách nhiệm? Là một đại lý cụ thể? Hay hệ thống đại lý? Và điều gì xảy ra nếu các hệ thống đại lý tương tác với nhau? Làm sao chúng ta có thể xây dựng khả năng truy xuất nguồn gốc và biện pháp bảo vệ thích hợp?
Chúng ta vẫn chưa biết cách giải quyết những vấn đề này trong các ứng dụng LLM và GenAI. Làm sao đảm bảo rằng chúng ta có thể bảo mật điều gì đó phức tạp hơn nhiều? Ngoài những rủi ro đó, có thể có tất cả các loại tổn thương social trên quy mô toàn cầu.
Nhu cầu cho một AI tổng thể, có trách nhiệm
Luật phát lĩnh vẫn chưa xem xét các hệ thống đại lý AI. Họ vẫn đang đấu tranh để hiểu cách bảo vệ các ứng dụng LLM và GenAI. Trong kỷ nguyên của nền kinh tế đại lý, các nhà phát triển, công ty công nghệ, các tổ chức và nhà làm luật cần xem xét lại khái niệm “AI có trách nhiệm”.
Áp dụng quản trị AI và các biện pháp AI có trách nhiệm phù hợp cho mỗi tổ chức hoặc ứng dụng là chưa đủ. Cách tiếp cận nên toàn diện hơn và việc hợp tác quốc tế về AI đại lý an toàn, bảo mật có lẽ không phải là tùy chọn mà là điều bắt buộc.
Tiến sĩ Merav Ozair giúp các tổ chức áp dụng hệ thống AI có trách nhiệm và giảm thiểu rủi ro liên quan tới AI. Bà đang phát triển và giảng dạy các khoá học công nghệ mới nổi tại Đại học Wake Forest và Đại học Cornell, và từng là giáo sư fintech tại Trường Kinh doanh Rutgers. Bà cũng là người sáng lập Emerging Technologies Mastery, một công ty tư vấn toàn diện về Web3 và AI (và đổi mới một cách có trách nhiệm), và có bằng Tiến sĩ từ Trường Kinh doanh Stern tại NYU.