Cảnh báo thủ đoạn làm giả cuộc gọi video nhằm chiếm đoạt tài sản với Deepfake

14:22 - 31/03/2023

Người dùng mạng xã hội hiện nay đã cảnh giác hơn với thủ đoạn lừa đảo bằng tin nhắn nhờ chuyển tiền. Nắm bắt được tâm lý này, các đối tượng lừa đảo đã sử dụng thủ đoạn tinh vi hơn, lợi dụng công nghệ Deepfake làm giả cuộc gọi video nhằm chiếm đoạt tài sản.

Deepfake - mối đe dọa an ninh mạng toàn cầu

Deepfake là từ ghép giữa deep learning (học sâu) và fake (giả mạo). Đây là công nghệ ứng dụng trí tuệ nhân tạo (AI) tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video làm giả đối tượng ngoài đời thực với độ chính xác rất cao. 

Dựa trên tệp tin hình ảnh khuôn mặt, giọng nói của một người ngoài đời thực, Deepfake sẽ sử dụng thuật toán để tái tạo lại khuôn mặt và giọng nói phù hợp với nét mặt, biểu càm của một người khác; sau đó tạo ra video giả mạo hoàn toàn đối tượng ngoài đời thực.

Cảnh báo thủ đoạn làm giả cuộc gọi video nhằm chiếm đoạt tài sản - Ảnh 1.

Deepfake là mối đe dọa an ninh mạng toàn cầu và thường được sử dụng cho mục đích xấu. Ảnh: Freepik

Theo Bkav, Deepfake không phải là công nghệ hoàn toàn mới. Thực tế nó đã được sử dụng trong ngành công nghiệp điện ảnh, giải trí từ nhiều năm trước. Tuy nhiên, gần đây, với sự phát triển của công nghệ máy tính và trí tuệ nhân tạo, việc tạo ra video giả mạo trở nên dễ dàng hơn và độ chính xác của chúng ngày càng cao. 

Điều này đã tạo ra cơ hội cho các kẻ lừa đảo sử dụng công nghệ Deepfake nhằm gây hại cho người dùng thông qua các trang mạng xã hội và các phương tiện truyền thông khác. Ngoài ra, việc truyền tải thông tin và chia sẻ video trên mạng xã hội ngày càng phổ biến, dẫn đến việc các video call sử dụng Deepfake có thể lan truyền nhanh chóng và rộng rãi trên Internet, tạo ra nhiều tác động xấu đến mọi người.

Hiện nay Deepfake đã trở thành mối quan ngại an ninh mạng của cả thế giới bởi nó thường được sử dụng cho những mục đích không lành mạnh. Ngoài lợi dụng công nghệ này để lừa đảo chiếm đoạt tài sản, các đối tượng xấu còn sử dụng Deepfake nhằm tuyên truyền sai lệch về chính trị, hay bôi nhọ danh dự ai đó bằng cách ghép mặt họ vào phim khiêu dâm.

Nâng cao cảnh giác trước thủ đoạn lừa đảo tinh vi sử dụng Deepfake

Công an thành phố Hà Nội cảnh báo, thời gian gần đây, tình hình tội phạm lừa đảo chiếm đoạt tài sản trên không gian mạng diễn biến phức tạp. Lợi dụng công nghệ Deepfake làm giả cuộc gọi video nhằm chiếm đoạt tài sản là thủ đoạn lừa đảo rất tinh vi.

Thông qua mạng Internet, các đối tượng thu thập hình ảnh, giọng nói của người dùng trên mạng xã hội, sử dụng công nghệ Deepfake tạo ảnh động, video giả mạo người dùng đang nói chuyện trực tuyến với cùng khuôn mặt, âm điệu giọng nói và cách xưng hô.

Cảnh báo thủ đoạn làm giả cuộc gọi video nhằm chiếm đoạt tài sản - Ảnh 2.

Lợi dụng công nghệ Deepfake làm giả cuộc gọi video nhằm chiếm đoạt tài sản là thủ đoạn lừa đảo rất tinh vi. Ảnh: IT

Đối tượng tạo lập tài khoản giả mạo trên mạng xã hội trùng thông tin và ảnh đại diện với người dùng, kết bạn với nạn nhân trong danh sách bạn bè và nhắn tin vay mượn tiền theo kịch bản sẵn có. 

Trong một số trường hợp, đối tượng chiếm đoạt tài khoản mạng xã hội của người dùng để trực tiếp nhắn tin cho các nạn nhân trong danh sách bạn bè. Để tạo lòng tin với nạn nhân, đối tượng truyền tải Deepfake video sẵn có lên kênh video call, khiến nạn nhân nhận ra hình ảnh và giọng nói của người quen và nhanh chóng chuyển tiền theo yêu cầu của đối tượng.

Với công nghệ Deepfake ngày càng phát triển, video giả mạo có độ chính xác cao, rất khó phân biệt thật giả. Tuy nhiên, video do đối tượng tạo sẵn thường có nội dung chung chung, không phù hợp hoàn toàn với ngữ cảnh thực tế giao tiếp với nạn nhân, có thể khiến nạn nhân nghi ngờ, phát hiện. 

Để che lấp khuyết điểm trên, các đối tượng thường tạo ra video với âm thanh khó nghe, hình ảnh không rõ nét giống cuộc gọi video có tín hiệu chập chờn được thực hiện trong khu vực phủ sóng di động/wifi yếu.

Công an thành phố Hà Nội đề nghị mọi người nâng cao cảnh giác khi nhận bất kỳ tin nhắn, cuộc gọi video với nội dung vay, mượn tiền qua các ứng dụng mạng xã hội. Ngoài ra, người dân cũng cần bình tĩnh, sau đó gọi điện thoại hoặc liên lạc trực tiếp cho người thân để xác minh (không gọi qua các ứng dụng mạng xã hội như Zalo, Messenger, Viber, Telegram…). Trường hợp nghi vấn đối tượng giả mạo người thân trên mạng xã hội để lừa đảo, chiếm đoạt tài sản thì người dân cần báo ngay cho cơ quan Công an gần nhất để được hỗ trợ, xử lý kịp thời.

Link nội dung: https://congdankhuyenhoc.vn/canh-bao-thu-doan-lam-gia-cuoc-goi-video-nham-chiem-doat-tai-san-voi-deepfake-179230331135253085.htm