Dùng công nghệ AI giả giọng nói, hình ảnh để lừa đảo

09:57 - Thứ Hai, 05/02/2024 Lượt xem: 6280 In bài viết

Các đối tượng tội phạm công nghệ cao sử dụng Deepfake AI (phần mềm ghép mặt và giọng nói) giống hệt người quen của nạn nhân để thực hiện hành vi lừa đảo. Đây không chỉ là thủ đoạn mới mà còn cực kỳ tinh vi, nhiều người đã rất cảnh giác, họ cẩn thận gọi video thông qua Facebook, Zalo kiểm chứng nhưng vẫn dễ dàng sập bẫy.

Tập đoàn Bkav vừa phát đi cảnh báo, gần đây nhiều người đã trở thành nạn nhân của các vụ lừa đảo tài chính sử dụng phương thức Deepfake và có sự tham gia của AI (Trí tuệ nhân tạo).

Cụ thể, từ nửa cuối năm 2023 đến nay, Tập đoàn Bkav liên tục nhận được các báo cáo cũng như yêu cầu trợ giúp của nạn nhân trên khắp cả nước về các vụ việc lừa đảo sử dụng phương thức Deepfake.

Theo các chuyên gia của Bkav, rất nhiều trường hợp kẻ xấu đã kiểm soát được tài khoản Facebook nhưng không lập tức chiếm đoạt hoàn toàn mà âm thầm theo dõi, thu thập thông tin người dùng, chờ cơ hội giả làm nạn nhân để hỏi vay tiền bạn bè, người thân của họ. Chúng sử dụng AI để tạo sẵn một đoạn video giả mạo gương mặt và giọng nói của chủ tài khoản Facebook (Deepfake). Khi được yêu cầu gọi điện video call để chứng thực, chúng đồng ý nhận cuộc gọi nhưng sau đó nhanh chóng ngắt kết nối để tránh bị phát hiện.

Hình ảnh kẻ xấu dùng tài khoản Fakebook đã lấy được để lừa đảo, vay tiền. Ảnh: Bkav

Tháng 8-2023, chị Trần Thị Mỹ Hạnh, ngụ tỉnh Đắk Lắk, nhận được tin nhắn vay tiền của một người bạn thông qua tin nhắn Facebook Messenger, dù tên tài khoản trùng khớp với tên bạn mình, nhưng chị vẫn cảnh giác, gọi video để xác thực nhưng cuộc gọi chỉ kéo dài vài giây rồi cúp máy, người kia giải thích “đang có chuyện gấp, mạng chập chờn”. Đã thấy mặt bạn mình trong cuộc gọi, giọng nói cũng đúng của người này, chị Hạnh xóa tan nghi ngờ và đồng ý chuyển 20 triệu đồng. Tuy nhiên, sau khi chuyển tiền thành công, chị Hạnh kiểm tra thông tin chủ tài khoản nhận tiền, xác minh lại mới biết mình đã rơi vào bẫy của hacker.

Theo ông Nguyễn Tiến Đạt, Tổng Giám đốc Trung tâm nghiên cứu mã độc (AntiMalware) của Bkav, khả năng thu thập và phân tích dữ liệu người dùng thông qua AI cho phép tạo ra những chiến lược lừa đảo tinh vi. Điều này cũng có nghĩa là mức độ phức tạp của các kịch bản lừa đảo khi kết hợp giữa Deepfake và GPT sẽ ngày càng cao, khiến việc nhận diện lừa đảo sẽ khó khăn hơn rất nhiều.

Bkav khuyến cáo người dùng cần đặc biệt nâng cao cảnh giác, không cung cấp thông tin cá nhân (như CCCD, tài khoản ngân hàng, mã OTP…), không chuyển tiền cho người lạ qua điện thoại, mạng xã hội, các trang web khi nghi vấn có dấu hiệu lừa đảo. Khi có yêu cầu vay/chuyển tiền vào tài khoản qua mạng xã hội, nên thực hiện các phương thức xác thực khác như gọi điện thoại hay sử dụng các kênh liên lạc khác để xác nhận lại.

Trên thế giới đã ghi nhận được không ít những trường hợp nạn nhân của phương thức Deepfake, nhiều người đã bị lừa từ hàng chục ngàn cho đến hàng triệu USD. Chỉ tính riêng trong năm 2022, các đối tượng lừa đảo sử dụng phương thức deepfake bằng giọng nói chiếm đoạt tài sản ước tính để lên tới khoảng 11 triệu USD. Ở Việt Nam, các chiêu trò lừa đảo bằng deepfake đã bắt đầu xuất hiện ngày càng tinh vi, với nhiều nạn nhân trên cả nước. Tình trạng này nghiêm trọng đến mức, chính quyền ở một số địa phương đã phải phát đi cảnh báo về những thủ đoạn lừa đảo chiếm đoạt tài sản bằng công nghệ deepfake tới người dân.

Theo SGGP
Bình luận

Tin khác

Back To Top