Đài CCTV đưa tin, cảnh sát tỉnh Hồ Bắc (miền trung Trung Quốc) công bố vụ lừa đảo công nghệ cao, trong đó các đối tượng sử dụng trí tuệ nhân tạo (AI) để giả giọng người thân, lừa gạt bạn bè và gia đình của họ.
Bà Lưu, một nạn nhân liên quan, cho biết nhận được cuộc gọi từ số điện thoại cố định mạo danh cháu trai của bà. Người gọi nói trong tiếng khóc nức nở rằng đã làm bị thương đầu một người tại siêu thị. Người bị thương đã nhập viện và yêu cầu bồi thường 20.000 tệ (khoảng 72 triệu đồng).
Người gọi cho biết đang ở đồn cảnh sát và cần số tiền đó để được thả. Đồng thời nài nỉ bà không được kể với mẹ cậu, nếu không cậu sẽ “nhảy lầu tự tử”.
Bà Lưu lập tức an ủi “cháu trai”, nhưng khi hỏi cậu đang ở đồn cảnh sát nào thì cuộc gọi bất ngờ bị cúp. Bà vội vàng vay mượn tiền mặt từ người thân, bạn bè và chờ cuộc gọi tiếp theo, vì không dám báo cho cha mẹ hay trường học của cháu.
Sau đó, “cháu trai” gọi lại, nói rằng cha của một người bạn cùng lớp sẽ đến lấy tiền ở một địa điểm cách nhà bà 20 phút. Cậu nói sẽ gọi vào điện thoại của người đàn ông đó để bà xác nhận đúng người.
Bà Lưu cho biết khi bắt máy, bà nghe thấy cháu trai nói: “Bà đưa tiền cho chú ấy đi”. Tin rằng mọi chuyện đã được giải quyết ổn thỏa, bà không kể với bất kỳ ai trong gia đình.
Vài ngày sau, khi cháu trai đến thăm, bà hỏi về vụ việc thì mới bàng hoàng phát hiện mình đã bị lừa. Bà lập tức trình báo cảnh sát và họ phát hiện một cụ bà khác cũng rơi vào cái bẫy tương tự chỉ vài ngày trước đó.
Sau khi kiểm tra camera giám sát trên đường, cảnh sát phát hiện cùng một người đàn ông đã đến nhận tiền từ cả hai nạn nhân.
Người đàn ông họ Trương khai rằng chỉ nghĩ bản thân đang làm một công việc bán thời gian kiếm thêm thu nhập, với thù lao 1.000 tệ (3,6 triệu đồng) mỗi ngày.
Trương nhận chỉ thị từ nhóm lừa đảo để lấy tiền từ các nạn nhân rồi giao đến một địa điểm được thông báo.
Bà Lưu nói với cảnh sát rằng giọng nói trong điện thoại giống hệt cháu trai mình. Cháu bà cũng cho biết trước đó, ở nhà đã nhận được nhiều cuộc gọi lạ. Cậu nhấc máy hỏi ai gọi nhưng đầu dây không ai trả lời.
Cảnh sát cho biết đây là một chiêu thức mới của các nhóm lừa đảo. Các đối tượng dùng AI để tạo ra giọng nói giống hệt nạn nhân dựa trên các cuộc gọi thử trước đó, sau đó gọi cho người thân, bạn bè của nạn nhân bằng giọng nói đã sao chép.
Đối tượng lừa đảo cố tình gọi đến điện thoại bàn, loại vẫn còn được người lớn tuổi sử dụng, để gây khó khăn trong việc xác minh thông tin.
Hiện nay, ở Trung Quốc lưu hành nhiều ứng dụng AI có tính năng sao chép giọng nói, chỉ tốn vài chục tệ cho mỗi tài khoản.
“Mấy kẻ này thật vô liêm sỉ, lợi dụng tình yêu thương con cháu của người già để trục lợi”, một cư dân mạng phẫn nộ bình luận.
Một người khác chia sẻ mình đã dùng trợ lý AI để nghe các cuộc gọi lạ nhằm phòng tránh lừa đảo: “Lấy độc trị độc”.
“Công nghệ đang phát triển quá nhanh, luật pháp cần phải được điều chỉnh kịp thời ứng phó”, một người khác nhận định.