VNReport»Công nghệ»Thế giới số»Bộ Công an cảnh báo hình thức lừa đảo mà ai cũng có thể thành nạn nhân

Bộ Công an cảnh báo hình thức lừa đảo mà ai cũng có thể thành nạn nhân

11:41 - 25/04/2025

Bộ Công an vừa phát đi một cảnh báo khẩn cấp về một hình thức lừa đảo mới, tinh vi và nguy hiểm, mà theo đó, bất kỳ ai sử dụng điện thoại thông minh và các ứng dụng trực tuyến đều có nguy cơ trở thành nạn nhân.

Gần đây, tình trạng tội phạm sử dụng công nghệ cao, đặc biệt là trí tuệ nhân tạo (AI), để thực hiện hành vi lừa đảo và đe dọa tống tiền đang gia tăng và trở nên phức tạp. Những hành vi này gây ra nhiều hệ lụy nghiêm trọng, ảnh hưởng đến tài sản, danh dự và uy tín của nạn nhân.

Mới đây, Bộ Công an đã cảnh báo về thủ đoạn cắt ghép hình ảnh và video nhạy cảm nhằm mục đích tống tiền. Các đối tượng phạm tội thường nhắm đến những người có điều kiện kinh tế và địa vị xã hội, bao gồm lãnh đạo các cơ quan nhà nước.

Chiêu trò của những kẻ lừa đảo bao gồm việc sử dụng công nghệ AI, cụ thể là kỹ thuật Deepfake, để ghép mặt nạn nhân vào các hình ảnh và video có nội dung nhạy cảm. Bước đầu tiên, các đối tượng sẽ thu thập thông tin cá nhân của nạn nhân bằng cách khai thác hình ảnh, số điện thoại cũng như các thông tin cá nhân của nạn nhân từ các nguồn công khai trên mạng xã hội. Sau đó, chúng sử dụng công nghệ AI, họ dễ dàng ghép mặt nạn nhân vào các nội dung nhạy cảm từ Internet. Cuối cùng, sau khi tạo ra hình ảnh giả mạo, họ yêu cầu nạn nhân chuyển tiền vào tài khoản ngân hàng hoặc ví điện tử, với số tiền từ vài triệu đến hàng tỷ đồng, kèm theo lời hứa “xóa bỏ bằng chứng”.

Bộ Công an cảnh báo rằng có tình trạng tội phạm lợi dụng hình ảnh và video của người dân công khai trên mạng để chỉnh sửa, tạo nội dung nhạy cảm nhằm đe dọa và tống tiền. Người dân cần cảnh giác khi nhận được tin nhắn hoặc cuộc gọi có nội dung như vậy; không chuyển tiền khi bị đe dọa. Nếu phát hiện dấu hiệu bị lừa đảo, hãy nhanh chóng trình báo cơ quan công an gần nhất và phản ánh qua ứng dụng VNeID.

Trước đó, các đối tượng lừa đảo cũng sử dụng công nghệ Deepfake để tạo ra những video call giả mạo với hình ảnh và giọng nói y hệt người thật của nạn nhân. Chúng thường giả danh người thân, bạn bè hoặc đồng nghiệp để thực hiện các cuộc gọi video ngắn với mục đích vay mượn tiền. Để che giấu những điểm bất thường như hình ảnh mờ nhòe, âm thanh không đồng bộ với khẩu hình, hay biểu cảm khuôn mặt thiếu tự nhiên, các đối tượng này thường viện cớ “sóng yếu” hoặc “kết nối kém” để nhanh chóng kết thúc cuộc gọi trước khi nạn nhân kịp nhận ra sự bất thường.

Để phòng tránh, người dân cần lưu ý:

Luôn bình tĩnh xác minh khi nhận được yêu cầu chuyển tiền, đặc biệt là những trường hợp khẩn cấp, gấp gáp

Kiểm tra đa kênh bằng cách gọi lại số điện thoại đã lưu hoặc gặp mặt trực tiếp

Quan sát kỹ các dấu hiệu trong cuộc gọi video: khuôn mặt vô cảm, ánh mắt không tự nhiên, âm thanh và hình ảnh không đồng bộ

Tuyệt đối không nhấp vào các đường link lạ, kể cả khi được gửi từ người quen

Kiểm tra kỹ thông tin tài khoản ngân hàng trước khi chuyển tiền, đảm bảo tên người nhận chính xác.

Nếu phát hiện có dấu hiệu lừa đảo, người dân cần kịp thời trình báo cơ quan công an để ngăn chặn và xử lý theo quy định của pháp luật.

https://cafebiz.vn/bo-cong-an-canh-bao-hinh-thuc-lua-dao-ma-ai-cung-co-the-thanh-nan-nhan-176250423185031211.chn