Cảnh giác trước thủ đoạn ghép mặt, giọng nói giống hệt người thân để lừa đảo

Với sự phát triển của công nghệ 4.0, sự tiện ích mà các dịch vụ nộp tiền, chuyển tiền nhanh qua ứng dụng SmartBankinh của hệ thống các ngâ...

Với sự phát triển của công nghệ 4.0, sự tiện ích mà các dịch vụ nộp tiền, chuyển tiền nhanh qua ứng dụng SmartBankinh của hệ thống các ngân hàng,… đã giúp cho người dân được nhiều tiện lợi. Tuy nhiên, lợi dụng vào những ứng dụng trên, thời gian qua các đối tượng xấu đã sử dụng nhiều công nghệ hiện đại để thực hiện hành vi lừa đảo, chiếm đoạt tài sản hoặc các hành vi vi phạm pháp luật khác mà trong đó đáng chú ý thời gian qua xuất hiện phương thức mới đó là các đối tượng đã sử dụng công nghệ Deepfake AI, để tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video với độ chính xác rất cao mà đôi lúc chúng ta không nhận biết được để thực hiện hành vi lừa đảo.
Đơn cử, nhiều trường hợp người dân đã bị lừa như chị Nguyễn Thị Th. (ngụ phường Linh Tây, TP. Thủ Đức, TP.HCM) bị lừa mất 20 triệu đồng với hình thức gọi video qua Facebook. Theo đó, chị Th. đang làm việc thì nhận được tin nhắn của bạn thân qua Facebook hỏi mượn 20 triệu đồng để đủ tiền đáo hạn ngân hàng. Nghi ngờ Facebook người bạn bị chiếm tài khoản, lừa đảo nên chị Th. đã gọi video để kiểm chứng. Phía bên kia bắt máy, mở video cho chị Th. thấy mặt bạn nhưng hình ảnh mờ, chập chờn và nói đang cần tiền gấp. Khi chị Th. hỏi sao hình ảnh mờ thì bên kia trả lời "đang vùng sóng yếu". Chị Th. tin tưởng, chuyển 20 triệu đồng vào số tài khoản theo yêu cầu. Sau khi chuyển tiền được 30 phút, chị Th. dùng điện thoại gọi cho cô bạn hỏi thăm thì mới biết mình đã bị lừa. Ngoài ra, còn rất nhiều trường hợp khác đã mắc bẫy của bọn tội phạm mà không biết kêu than với ai. Vì sau khi bị hại thực hiện các bước chuyển tiền thông qua tài khoản ngân hàng thì đối tượng nhanh chống chuyển khoản số tiền chiếm đoạt được qua các tài khoản ngân hàng khác có địa chỉ trụ sở ở ngoài nước,….
Có thể thấy, các đối tượng trên đã sử dụng phương thức lừa đảo chiếm đoạt tài sản rất tinh vi, bằng công nghệ ứng dụng trí tuệ nhân tạo (AI). Đó là, chúng sử dụng công nghệ Deepfake AI, tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video làm giả người ngoài đời thực (bạn bè, người thân, cán bộ cơ quan hành chính Nhà nước, thuế, hải quan, viện kiểm sát và toàn án nhân dân,….) với độ chính xác rất cao. Khi chúng thực hiện cuộc gọi video để giả làm người thân vay tiền, giả làm con cái đang du học nước ngoài gọi điện cho bố mẹ nhờ chuyển tiền đóng học phí hay có thể tạo ra những tình huống khẩn cấp như người thân bị tai nạn cần tiền gấp để cấp cứu…Để thực hiện được hình thức lừa đảo này, các đối tượng tìm kiếm, thu thập thông tin cá nhân, hình ảnh, video có giọng nói được đăng tải công khai trên các tài khoản mạng xã hội như Zalo, Facebook, Tiktok… rồi sử dụng công nghệ Deepfake AI để tạo sẵn những video rất khó phân biệt thật - giả, có hình ảnh, giọng nói của cá nhân đó để phục vụ cho kịch bản lừa đảo.
Tuy nhiên, người dân cần tỉnh táo, đề phòng nhận diện đặc điểm của hình thức lừa đảo bằng công nghệ Deepfake AI thì những cuộc gọi video như vậy thường có âm thanh, hình ảnh không rõ nét, tín hiệu chập chờn giống như cuộc gọi video trong khu vực phủ sóng di động hoặc wifi yếu để nạn nhân khó phân biệt thật, giả. Thứ hai, các đối tượng thường đưa ra những tình huống khẩn cấp để bị hại mất đi tính cảnh giác mà thực hiện theo yêu cầu của chúng. Nếu nạn nhân cẩn thận gọi video để kiểm tra thì chúng sẽ không nhận cuộc gọi hoặc sử dụng phần mềm cắt ghép hình ảnh, video để đánh lừa. Từ những căn cứ nêu trên, khuyến cáo và đề nghị mọi người nâng cao cảnh giác, khi nhận bất kỳ tin nhắn, cuộc gọi video với nội dung vay, mượn tiền qua các ứng dụng mạng xã hội thì phải bình tĩnh. Hạn chế đăng tải hình ảnh, âm thanh, video clip của bạn bè, người thân,… lên các tài khoản mạng xã hội có độ bảo mật không cao. Vì đây là người thông tin mà các đối tượng có thể thu thập bất cứ lúc nào để thực hiện hành vi lừa đảo. Đồng thời, cần bình tĩnh, sau đó gọi điện thoại trực tiếp cho người thân để xác minh (không gọi qua các ứng dụng như Zalo, Messenger, Viber, Telegram…). Trường hợp nghi vấn đối tượng giả mạo người thân trên mạng xã hội để lừa đảo, chiếm đoạt tài sản, cần báo ngay cho cơ quan công an gần nhất để được hỗ trợ, xử lý kịp thời.

An Nhiên (tổng hợp)

Related

nổi bật 1 513857828633625499

Đăng nhận xét

emo-but-icon

Tìm kiếm

XEM NHIỀU

LONG AN

LONG AN

LƯU TRỮ

THỐNG KÊ

Lượt truy cập:
  • BÀI VIẾT:
  • BÌNH LUẬN:
  • ĐANG XEM:
  • Flag Counter

LIÊN HỆ

Tên

Email *

Thông báo *

FANPAGE

DỊCH

item