: TVO 24H: 2023-05-26 11:18:06

Lượt xem: 2230

Người đàn ông bị lừa hơn 600.000 USD vì chiêu gọi deepfake

Mặc dù đã gọi video với bạn để làm bằng chứng, người này vẫn bị lừa tiền vì deepfake làm giả quá giống thật.

Người đàn ông bị lừa hơn 600.000 USD vì chiêu gọi deepfake

cảnh sát đã thu hồi 3,3 triệu trong tổng số 4,3 triệu tệ bị đánh cắp. Ảnh: Fast Company.

Tháng trước, Guo, ông chủ một công ty công nghệ ở thành phố Phúc Châu, Trung Quốc, đã bị lừa 4,3 triệu nhân dân tệ (610.000 USD) vì cả tin vào công nghệ AI. Nhóm lừa đảo đã lợi dụng trí tuệ nhân tạo để bắt chước khuôn mặt và giọng nói của bạn anh, sau đó cố thuyết phục anh chuyển tiền vào tài khoản.

Đòi tiền bằng deepfake

Kể lại với Sixth Tone, nạn nhân cho biết nhận được cuộc gọi video trên WeChat từ một người bạn. Người này nhờ Guo gửi tiền bằng tài khoản của công ty và hứa sẽ trả lại tiền ngay lập tức. Ông chủ công ty công nghệ vì nhẹ dạ cả tin đã ngay lập tức gửi tiền cho người bạn này và nhận được một tấm ảnh chụp màn hình hoàn trả tiền lại. Tuy nhiên, tấm ảnh này lại là giả mạo.

Kẻ lừa đảo này đã sử dụng công nghệ deepfake cao cấp, có khả năng đổi mặt bằng AI và giả dạng y hệt người bạn thân của nạn nhân. Quả thật, Guo đã tin lời ngay lập tức khi người bạn nói rằng đang cần tiền để chơi đấu giá.

Người đàn ông bị lừa hơn 600.000 USD vì chiêu gọi deepfake

Trí tuệ nhân tạo ngày càng tinh vi và ứng dụng vào các trường hợp lừa đảo. Ảnh: Reuters.

“Tôi đã mất cảnh giác sau khi xác nhận khuôn mặt và giọng nói của người bạn trong cuộc gọi video”, Guo chia sẻ. Sau đó, ông đã liên lạc lại với người bạn của mình và người này nói rằng không hề hỏi mượn tiền ông. Thậm chí, người bạn còn tỏ thái độ dửng dưng trước vụ việc.

Hôm 22/5, cảnh sát địa phương cho biết gần 3,3 triệu tệ đã được thu hồi. Số tiền còn lại vẫn đang trong quá trình truy vết. Cơ quan chức năng cũng khuyên người dùng nên cẩn trọng mỗi khi công khai thông tin sinh trắc học, đồng thời hạn chế việc chia sẻ video và những hình ảnh cá nhân rộng rãi trên Internet.

Không lâu sau đó, một số hashtag liên quan đến lừa đảo bằng AI bắt đầu được lan truyền và lọt top xu hướng Weibo. Người dùng cũng bày tỏ quan ngại khi những tình huống lừa tiền như Guo đang ngày càng tăng cao về số lượng và độ phức tạp, tinh vi.

Li, một nhân viên ở Phúc Châu, cũng bị lừa 48.000 USD. Nhóm lừa đảo đã dùng phần mềm deepfake để đóng giả sếp của Li và nhờ vả anh gửi tiền.

AI bị dùng sai mục đích

Theo Sixth Tone, số lượng các vụ lừa đảo diễn ra ngày một nhiều càng khiến người dùng lo ngại. Họ lo lắng rằng AI sẽ bị sử dụng sai mục đích cho những hành vi xấu, đặc biệt trong thời điểm trí tuệ nhân tạo đang là từ khóa phổ biến kể từ khi ChatGPT ra mắt vào tháng 11/2022.

Trường hợp của Guo không phải là lần đầu tiên AI được sử dụng để giả mạo ai đó và lừa tiền. Một người phụ nữ có tên Jennifer DeStefano từng là nạn nhân của trò lừa đảo lừa đảo bắt cóc ảo thông qua điện thoại với sự trợ giúp của deepfake. Với công nghệ AI này, những kẻ bắt cóc khiến gia đình nạn nhân sợ hãi bằng âm thanh đã bị thay đổi sao cho giống với giọng nói của nạn nhân và đòi tiền chuộc.

Người đàn ông bị lừa hơn 600.000 USD vì chiêu gọi deepfake

Người dùng cần cảnh giác trước các cuộc gọi, tin nhắn mượn tiền. Ảnh: Yicai Global.

Ngày 20/1, cô đã nhận được một cuộc gọi từ số lạ, xuất hiện giọng cầu cứu của con gái cô cùng với lời đe dọa của một người đàn ông lạ mặt. “Nghe đây. Con gái của cô đang trong tay tôi. Nếu cô gọi cho cảnh sát hay bất cứ ai, tôi sẽ tiêm cho con bé đầy ma túy. Tôi sẽ đưa nó đến Mexico và cô sẽ không bao giờ gặp lại con gái mình nữa", người này nói qua điện thoại.

Bọn bắt cóc nhanh chóng đưa ra yêu cầu tiền chuộc 1 triệu USD, DeStefano quyết định gọi cho cảnh sát. Sau hàng loạt nỗ lực để tiếp cận Brianna, vụ “bắt cóc” đã bị vạch trần.

Lợi dụng AI để tạo những nội dung cấm

Mặt khác, ở Trung Quốc, khi thương mại điện tử phát triển, mua hàng online trở thành một hình thức phổ biến, không ít người livestream sử dụng phần mềm đổi mặt để giả mạo những người nổi tiếng để bán sản phẩm. Điều này đã dấy lên làn sóng chỉ trích mạnh mẽ.

Hồi tháng 3, một cô gái đã chia sẻ ảnh chụp cá khi đi tàu điện trên mạng xã hội. Tấm ảnh sau đó đã được một cư dân mạng tải về và sử dụng công cụ AI để làm giả một bức ảnh chuyển động mới, cho phép người dùng “thoát y” người phụ nữ trong tấm ảnh chỉ trong một cú click chuột. Tấm ảnh này nhanh chóng được chia sẻ rộng rãi và thu hút sự chú ý của công chúng.

Đến ngày 28/3, một vụ án khác liên quan đến tiếp tục xảy ra. Đây là vụ án về deepfake xâm phạm quyền riêng tư con người đầu tiên của tỉnh Giang Tô.

Trong phiên tòa, Tòa án Đặc khu kinh tế thành phố Thường Châu, tỉnh Giang Tô đã chỉ ra nghi phạm Zheng lan truyền chương trình deepfake, chuyên sản xuất những tấm ảnh, video khiêu dâm từ tháng 8/2021-2/2022.

Sau đó, anh ta sẽ dùng những sản phẩm này để bán kiếm tiền trên các group chat và thu về hơn 20.000 tệ. Anh ta còn buôn bán dịch vụ mở khóa tài khoản QQ từng lừa đảo, cá cược, vi phạm pháp luật…

Cuối cùng, tòa án xử nghi phạm 8 tháng tù giam, phạt 40.000 tệ và giao nộp tất cả công cụ phạm tội, xâm phạm thông tin cá nhân của người khác.

Nguồn Zingnews

Bình luận