Cảnh báo chiêu lừa đảo ghép mặt, giọng nói giống hệt người thân Các đối tượng sử dụng công nghệ Deepfake AI, tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video với độ chính xác rất cao để lừa đảo.
Đồng Nai: Dính cú lừa, một phụ nữ mất gần 2 tỷ (Kiến Thức) - Dù thủ đoạn lừa đảo của nhóm đối tượng thường xuyên được cảnh báo, tuy nhiên nhiều người vẫn nhẹ dạ cả tin chuyển tiền vào TK theo yêu cầu của băng tội phạm.