Trí tuệ nhân tạo đang tạo ra tổn thất hàng tỷ USD do các vụ lừa đảo khi tội phạm nhân đôi giọng nói để xâm nhập vào thẻ tín dụng và tài khoản ngân hàng.
Chiêu trò lừa đảo cổ điển, nơi nạn nhân nhận cuộc gọi từ người thân yêu xin tiền, trở nên đơn giản hơn với AI, WBTV báo cáo.
Chuyên gia an ninh mạng Thomas Hyslip, người đã có hai thập kỷ làm việc trong ngành thực thi pháp luật liên bang cùng Cơ quan Mật vụ và Bộ Quốc phòng, cho biết chỉ vài giây là đủ để tạo ra âm thanh giả mạo.
“Trước đây họ phải đi ăn cắp thẻ tín dụng một cách thủ công… Giờ đây với AI họ có thể tận dụng những gì đã có để nâng cao khả năng thực hiện lừa đảo…
Có những trường hợp, chỉ cần 30 giây là bạn có thể nhân đôi giọng nói của ai đó rồi gọi điện hoặc sử dụng để đánh lừa nhận dạng giọng nói. Một số ngân hàng giờ dùng nhận dạng giọng nói thay cho số điện thoại.”
Công ty kiểm toán Deloitte dự báo rằng gian lận từ AI tạo sinh sẽ đạt mốc 30 tỷ USD vào năm 2027, tăng từ 12,3 tỷ USD năm 2023.
Trong một tuyên bố gửi WBTV, Cục Điều tra Liên bang (FBI) khuyến nghị mọi người nên thận trọng khi để thông tin cá nhân công khai, lưu ý rằng tin tặc hiện có thể lấy những đoạn video hoặc ảnh tưởng chừng như không quan trọng để thực hiện lừa đảo.
“Nội dung âm thanh nhân tạo bởi AI ngày càng khó phát hiện và dễ tạo ra hơn, điều này có thể giúp tội phạm thực hiện các vụ lừa đảo thành công chống lại gia đình, cá nhân, doanh nghiệp và tổ chức tài chính.
FBI khuyến nghị công chúng nên cẩn trọng khi đăng tải hoặc nhắn tin trực tiếp với ảnh, video và thông tin nhận dạng cá nhân trên mạng xã hội, ứng dụng hẹn hò và các trang web trực tuyến khác. Mặc dù có vẻ vô hại khi đăng hoặc chia sẻ, nhưng những hình ảnh và video này có thể cung cấp cho kẻ xấu một lượng nội dung phong phú để tìm và nhắm mục tiêu nạn nhân và khai thác cho hoạt động phạm tội.”