Hotline: 0969 332 828 Email: [email protected]
Thứ sáu, 13/12/2024 08:43 (GMT+7)

Cảnh giác thủ đoạn lừa đảo, tống tiền tự xưng là 'thám tử tư'

Cơ quan Công an khuyến cáo thủ đoạn các đối tượng sử dụng công nghệ AI cắt ghép hình ảnh, video clip, sau đó giả danh “thám tử tư” để gửi tin nhắn tống tiền.

Thời gian gần đây, qua công tác nắm tình hình, Phòng An ninh mạng và phòng, chống tội phạm sử dụng công nghệ cao Công an TP. Hải Phòng phát hiện trên địa bàn, các đối tượng sử dụng công nghệ AI cắt ghép hình ảnh, video clip, sau đó giả danh “thám tử tư” để gửi tin nhắn tống tiền, gây hoang mang và tổn thất về tài sản cho nhiều người.

Thủ đoạn của các đối tượng này là tìm kiếm thông tin, hình ảnh, số điện thoại của nạn nhân (chủ yếu là nam giới, có điều kiện kinh tế, có chức vụ trong các cơ quan Đảng, nhà nước, cơ quan, doanh nghiệp) từ nhiều nguồn khác nhau (tài khoản mạng xã hội, báo điện tử,...) và tiến hành cắt ghép hình ảnh khuôn mặt của nạn nhân vào hình ảnh của một người nam giới trong những video clip có nội dung “nhạy cảm” ở các nhà nghỉ, khách sạn,...

Ảnh minh họa.
Ảnh minh họa.

Sau đó, đối tượng giả danh là thám tử tư nhắn tin thông báo với nạn nhân qua địa chỉ hòm thư điện tử cá nhân (email) hoặc qua số điện thoại cá nhân về việc đối tượng được thuê theo dõi nạn nhân một thời gian và phát hiện nạn nhân có những hành vi hủ bại, sa đọa ở chức vụ của mình, đồng thời đối tượng gửi cho nạn nhân đoạn video clip “nhạy cảm” đã được chỉnh sửa, cắt ghép với khuôn mặt của nạn nhân, yêu cầu nạn nhân phải chuyển một khoản tiền điện tử (USDT) vào địa chỉ ví điện tử hoặc số tài khoản ngân hàng mà đối tượng cung cấp để không bị đăng bài lên mạng xã hội, không bị lan truyền những hình ảnh này tới người thân, đồng nghiệp, nếu nạn nhân thực hiện yêu cầu, chúng sẽ đưa lại những tài liệu, video clip "nhạy cảm". Khi nạn nhân bị “sập bẫy”, các đối tượng sẽ hướng dẫn nạn nhân mua tiền điện tử chuyển đến các ví điện tử theo chỉ định hoặc chuyển khoản đến một tài khoản ngân hàng, sau đó chiếm đoạt toàn bộ số tiền.

Đây là một hình thức lừa đảo sử dụng công nghệ Deepfake AI - công nghệ trí tuệ nhân tạo (AI) có khả năng tạo các sản phẩm âm thanh, hình ảnh, video clip làm giả đối tượng ngoài đời thực với độ chính xác rất cao. Những hình ảnh, video “nhạy cảm” được tạo ra bằng “Deepfake" có thể gây ảnh hưởng lớn tới uy tín và cuộc sống của nạn nhân.

Để phòng tránh trường hợp bị lợi dụng hình ảnh cá nhân cho mục đích xấu, mỗi cá nhân cần kiểm tra và điều chỉnh cài đặt quyền riêng tư để hạn chế người có thể xem và truy cập ảnh cá nhân trên các tài khoản mạng xã hội. Hạn chế việc chia sẻ ảnh công khai với người lạ. Bên cạnh đó, không nên chia sẻ quá nhiều thông tin cá nhân (như ảnh cá nhân, số điện thoại, địa chỉ nhà,...) trên không gian mạng trong những trường hợp không thực sự cần thiết, hoặc khi sử dụng xong thì xóa bỏ những thông tin đã chia sẻ trên mạng Internet.

Trường hợp gặp phải những sự việc tương tự, phải nâng cao tỉnh thần cảnh giác với phương châm “Bình tĩnh, không hoảng sợ, không phản hồi, không vội vàng làm theo yêu cầu chuyển tiền của đối tượng”, đồng thời, liên hệ ngay với cơ quan Công an nơi gần nhất để được hỗ trợ, giải quyết.

Cùng chuyên mục

Cảnh báo thủ đoạn lừa đảo giả mạo PayPal tiếp tục tái diễn
Cục An toàn thông tin (Bộ Thông tin và Truyền thông) khuyến cáo người dân đề cao cảnh giác khi nhận được những tin nhắn yêu cầu chuyển tiền. Cẩn trọng với cả những tin nhắn, trang web có địa chỉ và tên miền hợp lệ, tuyệt đối không cung cấp các thông tin cá nhân, dữ liệu nhạy cảm hoặc thực hiện giao dịch chuyển tiền thông qua những đường dẫn được đính kèm trong tin nhắn.
Cảnh báo thủ đoạn mời chào đầu tư chứng khoán trên mạng dịp Tết để lừa đảo
Công an tỉnh Hưng Yên khuyến cáo người dân cần nâng cao cảnh giác khi tham gia đầu tư, giao dịch trên các sàn, website, ứng dụng đầu tư chứng khoán; tuyệt đối không tin tưởng vào các lời mời đầu tư với lợi nhuận cao hoặc tham gia vào các nhóm kín, cộng đồng trực tuyến khi chưa xác minh được danh tính, uy tín của tổ chức mời gọi. 

Tin mới