VNReport»Công nghệ»Thế giới số»Cảnh giác với các ứng dụng chỉnh sửa ảnh bằng Generative AI

Cảnh giác với các ứng dụng chỉnh sửa ảnh bằng Generative AI

10:56 - 24/02/2025

Thay quần áo AI đang liên tục nằm trong số những ứng dụng được tải về nhiều nhất từ ngày 19/2 tại Việt Nam. Việc ứng dụng này “hot” trở lại có thể khiến người dùng bị lợi dụng để phục vụ các mục đích khác như lừa đảo, tống tiền,…

Theo đó, trên kho ứng dụng App Store, các app như Beautycam, BeautyPlus, Fitroom – thay quần áo AI đang liên tục nằm trong số những ứng dụng được tải về nhiều nhất từ ngày 19/2 tại Việt Nam.

Theo nguồn tin từ VNExpress, trào lưu này bắt đầu khi Beautycam, thuộc Meitu của Trung Quốc, ra mắt tính năng Tủ đồ AI vào ngày 18/2 vừa qua. Tính năng này sẽ cho phép người dùng tải lên ảnh chân dung và chọn từ khoảng 70 bộ trang phục khác nhau. Ứng dụng mất 1-2 phút để “thay đồ”, giữ nguyên bối cảnh và khuôn mặt.

Chính vì thế, mạng xã hội những ngày qua tràn ngập hình ảnh của nhiều người trong cùng một bộ trang phục. Các bộ đồ được phân loại cho phụ nữ, đàn ông, bé trai và bé gái, nhưng người dùng có thể ghép bất kỳ trang phục nào vào ảnh của mình.

Mặc dù khả năng “thay đồ” của ứng dụng được đánh giá cao về tính chân thực, tuy nhiên, nó cũng tiềm ẩn nguy cơ như thông tin sai lệch và mất an toàn dữ liệu. Ứng dụng có thể ghép trang phục ngay cả khi ảnh chân dung nghiêng hoặc xoay, thậm chí điều chỉnh tư thế, vị trí tay chân và kiểu tóc. Tính năng này cũng mở ra nguy cơ thu thập và bán ảnh cho các công ty khai thác dữ liệu

Ứng dụng mất 1-2 phút để “thay đồ”, giữ nguyên bối cảnh và khuôn mặt

Theo đó, AI có thể xác định danh tính của một người, sở thích, các địa điểm họ thường đến, và thậm chí là những người họ quen biết chỉ qua những bức ảnh. Do đó, việc thu thập và bán ảnh cho các công ty khai thác dữ liệu đang trở nên dễ dàng và phổ biến hơn.

Chuyên gia từ Hiệp hội An ninh mạng Quốc gia cảnh báo rằng, trước mắt, người dùng có thể nhận nhiều quảng cáo gây phiền toái. Về lâu dài, những bức ảnh này có thể bị lợi dụng cho các mục đích xấu, như lừa đảo hoặc tống tiền.

Thực tế, thời gian gần đây, nhiều nạn nhân đã lên tiếng tố cáo việc bị cắt ghép hình ảnh và video nhạy cảm, cũng như bị đối tượng xấu đe dọa qua tin nhắn và cuộc gọi để tống tiền. Mặc dù cơ quan công an đã triệt phá nhiều vụ lừa đảo, nhưng số lượng vụ việc vẫn gia tăng, cho thấy vẫn còn nhiều người dễ bị lừa.

Theo đó, có hai thủ đoạn chính mà các đối tượng sử dụng để tống tiền. Thứ nhất, họ cắt ghép khuôn mặt của nạn nhân vào các hình ảnh và video nhạy cảm, sau đó sử dụng sim rác và tài khoản ảo trên Zalo, Facebook để đe dọa và tống tiền. Thứ hai, họ làm quen trên mạng xã hội, tán tỉnh và nhắn tin nội dung nhạy cảm, trong khi bí mật quay hoặc chụp màn hình nạn nhân để sử dụng làm áp lực tống tiền.

Đặc biệt, cơ quan chức năng đã cảnh báo về việc họ trở thành nạn nhân của công nghệ AI cắt ghép hình ảnh nhạy cảm. Các chuyên gia mạng cho biết AI có thể trích xuất dữ liệu từ bức ảnh và tạo ra video giả mạo. Nếu kẻ xấu có nhiều hình ảnh của nạn nhân, video cắt ghép sẽ càng giống thật hơn. Ngày nay, bất kỳ ai cũng có thể sử dụng công nghệ AI để tạo ra video chất lượng cao, và kẻ lừa đảo đã lợi dụng điều này để thực hiện hành vi tống tiền.

Bên cạnh đó, Bộ Công an cũng khuyến cáo người dân cảnh giác với các tin nhắn tống tiền và không chuyển tiền khi bị đe dọa. Nếu phát hiện dấu hiệu lừa đảo, nạn nhân cần nhanh chóng báo cáo với cơ quan công an gần nhất hoặc thông qua ứng dụng VNeID. Hãy tỉnh táo và thận trọng để tránh rơi vào bẫy lừa đảo, bảo vệ tài sản của bản thân.

https://vnexpress.net/ung-dung-thay-quan-ao-bang-ai-gay-sot-tai-viet-nam-4851675.html