OpenAI đã nâng cấp toàn diện hệ thống bảo mật nhằm phòng chống các mối đe dọa nước ngoài. Hãng trí tuệ nhân tạo trị giá 300 tỷ USD này thực hiện nghiêm ngặt kiểm soát truy cập, rà soát nhân viên kỹ lưỡng và tăng cường an ninh vật lý.
Việc cải tiến bảo mật của OpenAI được đẩy mạnh sau sự cố liên quan đến startup Trung Quốc DeepSeek vào tháng 1, nhằm bảo vệ tài sản trí tuệ và dữ liệu nhạy cảm trước nguy cơ gián điệp công nghệ.
- OpenAI tăng cường kiểm soát truy cập và bảo mật nội bộ sau sự cố liên quan DeepSeek.
- Áp lực cạnh tranh công nghệ Hoa Kỳ – Trung khiến các công ty AI thắt chặt thủ tục an ninh và tuyển dụng.
- Ban lãnh đạo OpenAI bổ sung chuyên gia an ninh quốc gia nhằm nâng cao chiến lược bảo vệ công nghệ.
OpenAI đã làm gì để nâng cấp hệ thống bảo mật?
OpenAI đã tiến hành chuỗi biện pháp nghiêm ngặt về an ninh nhằm bảo vệ bản quyền trí tuệ, đặc biệt từ các nguy cơ gián điệp đến từ nước ngoài, điển hình là Trung Quốc.
Bắt đầu từ năm 2023, sau sự cố liên quan DeepSeek vào tháng 1, OpenAI áp dụng cơ chế kiểm soát truy cập “information tenting”, giới hạn nhân viên được phép tiếp cận các dự án hàng đầu. Các phòng thí nghiệm lưu trữ công nghệ then chốt được cách ly offline hoàn toàn nhằm ngăn nguy cơ tấn công mạng từ xa.
Việc nâng cấp bảo mật giúp chúng tôi bảo vệ công nghệ hàng tỷ USD khỏi các hành vi trộm cắp công nghiệp và duy trì vị thế dẫn đầu ngành AI.
– CEO OpenAI, tháng 6 năm 2024
Thiết bị kiểm soát truy cập vật lý được trang bị sinh trắc học dấu vân tay tại văn phòng San Francisco, đi cùng chính sách “deny-by-default” chặn mọi kết nối mạng không được cấp phép.
Cạnh tranh công nghệ Hoa Kỳ – Trung ảnh hưởng thế nào đến chiến lược bảo mật của OpenAI?
Cuộc đua giữa Hoa Kỳ và Trung Quốc trên lĩnh vực AI trở nên gay gắt hơn với hàng loạt biện pháp kiểm soát xuất khẩu và cảnh báo tình báo Hoa Kỳ về các dạng gián điệp công nghệ gia tăng.
OpenAI và nhiều công ty công nghệ lớn tại Thung lũng Silicon đã siết chặt kiểm tra lý lịch nhân sự và rủi ro người trong, bởi nguy cơ rò rỉ dữ liệu ngày càng cao từ năm 2023. Lãnh đạo tổ chức xác nhận đây là phản ứng với bối cảnh an ninh toàn cầu đang biến động phức tạp.
Chúng tôi tích hợp công nghệ AI để không chỉ phát triển sản phẩm mà còn dùng đó làm lá chắn bảo vệ chống lại các cuộc tấn công mạng tinh vi.
– Matt Knight, Phó chủ tịch Bảo mật OpenAI, tháng 4 năm 2024
Việc bổ sung quân nhân cấp tướng Paul Nakasone, cựu lãnh đạo U.S. Cyber Command và NSA, vào hội đồng quản trị mang lại chuyên môn sâu về phòng thủ mạng cấp quốc gia cho OpenAI.
Những chính sách bảo mật nội bộ nào được triển khai tại OpenAI?
OpenAI áp dụng chính sách “information tenting”, chỉ cho phép một nhóm nhỏ nhân viên tiếp cận nghiên cứu nhạy cảm và mọi thành viên trong nhóm phải xác nhận sự đồng thuận về bảo mật thông tin.
Nhân viên bị yêu cầu không trao đổi dự án trong các không gian mở khi không chắc chắn người nghe có quyền truy cập hay không. Điều này đảm bảo sự tập trung và tránh rò rỉ thông tin.
Hệ thống lưu trữ chủ yếu cách ly hoàn toàn khỏi internet cũng như mạng nội bộ chung, giảm rủi ro chiếm đoạt dữ liệu bằng đường mạng.
Ai đang đứng sau chiến lược bảo mật nâng cao của OpenAI?
Tháng 10 năm 2023, OpenAI bổ nhiệm Dane Stuckey, cựu CISO của Palantir, làm Giám đốc An ninh Thông tin. Ông Stuckey tập trung áp dụng cách tiếp cận bảo mật mang tính quốc gia.
Tuyệt đối chú trọng chiến lược phòng thủ mạng, Matt Knight và Paul Nakasone cũng kết hợp thúc đẩy ứng dụng các mô hình AI bảo vệ OpenAI khỏi các nguy cơ ngày càng tinh vi.
Những câu hỏi thường gặp
- OpenAI tăng cường bảo mật vì lý do gì?
Do lo ngại gián điệp công nghệ, đặc biệt liên quan đến startup Trung Quốc DeepSeek và cạnh tranh công nghệ toàn cầu. - Chính sách “information tenting” là gì?
Là quy định hạn chế truy cập thông tin nhạy cảm chỉ trong nhóm nhân viên được xác thực kỹ lưỡng. - OpenAI có áp dụng công nghệ nào để bảo vệ hệ thống không?
Có, họ dùng chính mô hình AI của mình để giám sát và chống lại các cuộc tấn công mạng. - Ai là người đứng đầu bảo mật tại OpenAI?
Dane Stuckey, người có kinh nghiệm bảo mật cấp quốc gia và từng làm ở Palantir. - OpenAI có bị ảnh hưởng tiêu cực trong nội bộ do chính sách bảo mật nghiêm ngặt không?
Có một số phản ánh về khó khăn, nhưng họ cho rằng đó là cần thiết để bảo vệ tài sản trí tuệ.