Gia đình ông Benjamin Perkin (39 tuổi) ở Canada bị lừa đảo $15,499.
Câu chuyện được chính ông Perkin kể lại cho tờ báo Bưu điện Washington cho biết một người tự xưng là luật sư đã gọi cho bố mẹ anh trước. Qua điện thoại, ‘luật sư’ cho biết ‘con trai ông’ đã gây ra vụ tai nạn ô tô khiến một nhà ngoại giao Mỹ thiệt mạng và hiện đang cần tiền gấp để đóng án phí vì đang bị công an tạm giữ.
Có vẻ như ‘luật sư’ đã chuyển điện thoại sang ‘Perkin’ để nói chuyện với cha mẹ mình – nhưng thực ra đó là kết nối với một thiết bị trí tuệ nhân tạo đang làm giả giọng nói của anh ta. “Perkin” cho biết anh ta đang rất cần số tiền đó, chỉ biết tin tưởng vào gia đình và bằng “tiếng nói đủ gần” khiến cha mẹ Perkin đã bị lừa.
Vài giờ sau khi bị “luật sư” gây áp lực, cha mẹ của Perkin đã đến ngân hàng để rút tiền và gửi 15.449 USD thông qua hệ thống chuyển đổi Bitcoin.
Đêm đó, khi Perkin gọi điện cho bố mẹ, mọi chuyện bại lộ. Cha mẹ của anh ấy cũng cho biết họ cảm thấy cuộc gọi là “có gì đó không ổn”, nhưng vẫn theo dõi vì họ nghĩ rằng họ đã nói chuyện với con trai mình.
“Có thể nhóm lừa đảo đã xem video của tôi đăng trên YouTube rồi huấn luyện AI bắt chước giọng nói của tôi. Số tiền đã được gửi đi, không có bảo hiểm nên không thể lấy lại được” – ông Perkin nhận định.

Việc sử dụng trí tuệ nhân tạo để giả giọng nói nhằm mục đích lừa đảo ngày càng phổ biến. Minh họa: Washington Post
Câu chuyện tương tự cũng xảy ra với gia đình bà Ruth Card (73 tuổi) ở Regina nhưng nạn nhân lần này may mắn hơn. Kết quả là vào một buổi sáng, bà Ruth Card nhận được cuộc gọi từ một người lạ.
Đầu dây bên kia nói với bà Ruth Card rằng cháu trai của bà, Brandon, đang bị giam giữ, không có điện thoại để liên lạc và cần tiền bảo lãnh.
“Ngay lúc đó tôi chợt nghĩ rằng mình phải giúp anh ấy ngay lập tức,” cô nói với Ruth Card từ Canada. Bưu điện Washington.
Sau đó, cô và chồng đến ngân hàng và rút 2.207 USD – số tiền tối đa cô có thể rút hàng ngày. Họ định đến một ngân hàng thứ hai để lấy số tiền tương tự, nhưng may mắn thay cho họ, người quản lý ngân hàng đã gọi cả hai đến văn phòng đổi tiền.
Tại đó, người quản lý cho biết một khách hàng khác cũng nhận được cuộc gọi tương tự, cũng bắt chước giọng nói của người thân với “độ chính xác kỳ lạ”. Hai người gọi điện cho cháu thì cháu không sao, cũng không gọi về nhà cầu cứu.
“Chúng tôi bị cuốn vào câu chuyện mà không kiểm tra kỹ. Vào thời điểm đó, tôi chắc chắn rằng mình đang nói chuyện với Brandon”, cô Card nói.
Lừa đảo công nghệ đã gia tăng đáng kể trong thời gian gần đây, với những kẻ lừa đảo lợi dụng trí tuệ nhân tạo (AI) để bắt chước giọng nói của những người thân yêu của họ nhằm lừa đảo tiền. Công nghệ này ngày càng rẻ và dễ tiếp cận hơn, dẫn đến số lượng nạn nhân ngày càng tăng, chủ yếu nhắm vào người già.
Ủy ban Thương mại Liên bang Hoa Kỳ (FTC) báo cáo rằng vào năm 2022, hành vi trộm cắp danh tính là hình thức lừa đảo phổ biến thứ hai ở Hoa Kỳ, với hơn 36.000 báo cáo.
Những kẻ lừa đảo thường đóng giả bạn bè hoặc thành viên gia đình để lừa gạt nạn nhân của chúng. Chỉ riêng lừa đảo qua điện thoại đã chiếm hơn 5.100 vụ, gây thiệt hại hơn 11 triệu USD.