Hạn chế đưa thông tin cá nhân lên mạng xã hội để tránh bị lừa đảo bằng hình ảnh, video giả mạo

(Ngày Nay) - Lừa đảo trực tuyến gia tăng và trở nên tinh vi hơn khi tội phạm mạng sử dụng công nghệ mới như Deepfake, Deepvoice (những công nghệ ứng dụng AI) để tạo hình ảnh, video, âm thanh giả mạo giống như thật, khiến người dùng khó phân biệt...
Chiêu trò sử dụng công nghệ Deepfake để lừa đảo lại tái diễn.
Chiêu trò sử dụng công nghệ Deepfake để lừa đảo lại tái diễn.

Kịch bản lừa đảo tinh vi

Tình trạng lừa đảo qua các ứng dụng mạng xã hội như Zalo, Facebook, Skype, Telegram... trở nên phổ biến trong những năm gần đây. Vài năm trước, đối tượng đánh cắp tài khoản cá nhân để lừa đảo thông qua việc nhắn tin vay tiền. Sau một thời gian, nhận thấy hoạt động này kém hiệu quả do bị "bắt bài" và người dân cảnh giác, tội phạm công nghệ cao đã "nâng cấp" lên một mức độ mới, tinh vi hơn khi kết hợp giữa chiếm đoạt tài khoản cá nhân và sử dụng Deepfake để thực hiện cuộc gọi hình ảnh. Nhìn thấy người thân, bạn bè đang nói chuyện với mình, nhiều người không nghĩ rằng đây chỉ là video, ảnh giả do công nghệ tạo ra, dẫn đến bị lừa đảo.

Mới đây, chị Ngô Thị H (quận Cầu Giấy, Hà Nội) nhận được tin nhắn của người bạn thân qua Facebook, hỏi mượn số tiền 100 triệu đồng. Ngay sau khi nhận tin nhắn, chị H đã gọi video lại cho bạn. Phía bên kia bắt máy, trên màn hình hiện lên khuôn mặt của bạn nhưng chất lượng cuộc gọi hơi thấp, âm thanh khó nghe, hình ảnh nhòe mờ.

“Trước đó, tôi và bạn có nói chuyện về mở cửa hàng kinh doanh nên khi gọi video thấy khuôn mặt thật, tôi đã chuyển cho bạn 100 triệu đồng. Các đối tượng đã đọc kỹ những tin nhắn cũ của tôi và bạn để có kịch bản lừa đảo hợp lý”, chị H chia sẻ.

Còn chị Nguyễn Hải Q (huyện Đông Anh, Hà Nội) bị đối tượng xưng là cán bộ điện lực gọi nhắc đóng tiền điện, sau đó đề nghị kết bạn qua zalo để hướng dẫn cài app Epoint giả mạo và đề nghị đồng bộ hoá với tài khoản ngân hàng để tự động trả tiền.

“Để làm được việc này, đối tượng yêu cầu tôi phải quét hình ảnh căn cước công dân. Không ngờ đó là quét hình ảnh sinh trắc học để chuyển tiền. Khi thấy điện thoại báo chuyển hơn 95 triệu đồng, tôi giật mình biết là bị lừa. Tôi cũng luôn cảnh giác về các hình thức lừa đảo qua mạng, nhưng lúc đó đối tượng đọc đúng tên, đúng mã số dùng điện của gia đình nên lại tin. Chỉ một lúc mất cảnh giác đã bị đối tượng lừa”, chị Q chia sẻ.

Các chuyên gia an ninh mạng nhận định, đối tượng lừa đảo tìm kiếm, thu thập thông tin cá nhân, hình ảnh, video được đăng tải công khai trên những nền tảng mạng xã hội, rồi sử dụng Deepfake để tạo ra giọng nói, khuôn mặt, video giả. Điều đáng nói, video sẽ càng chân thực, hoàn thiện hơn khi các đối tượng thu thập được càng nhiều dữ liệu về hình dạng, giọng nói và đưa cho AI hoàn chỉnh dần. Đặc điểm chung của các cuộc gọi video lừa đảo là thường có âm thanh, hình ảnh không được tốt, giống như trong khu vực sóng di động hoặc wifi yếu để nạn nhân khó phân biệt thật, giả. Khi người nhận điện thoại gọi lại để kiểm tra, các đối tượng không nhận cuộc gọi hoặc sử dụng phần mềm cắt ghép hình ảnh, giọng nói nhằm tiếp tục đánh lừa.

Theo đại diện Cục An toàn thông tin, những vụ lừa đảo qua mạng gần đây cho thấy, đối tượng nghiên cứu kỹ về nhân thân của bị hại và lên kế hoạch chi tiết. Do đó, người dân không nên đưa thông tin cá nhân lên mạng xã hội.

Lừa đảo qua video giả dùng công nghệ mới lại tái diễn

Tình trạng tội phạm mạng lợi dụng hình ảnh, video công khai của người dân để chỉnh sửa, cắt ghép, đe dọa tống tiền bằng các video giả mạo, vừa được Bộ Công an nhắn tin cảnh báo rộng rãi tới đông đảo người dân.

Theo đó, sử dụng công nghệ Deepfake cho phép tái tạo âm thanh và hình ảnh của một người với độ chính xác cao, kẻ gian có thể giả mạo các nhà lãnh đạo trong các cuộc họp trực tuyến, hoặc dựng các video, cuộc gọi nhằm lừa đảo tài chính.

Hơn thế, các chiêu trò lừa đảo này thường khai thác yếu tố tâm lý như sự khẩn cấp, sợ hãi hoặc quyền lực, khiến nạn nhân hành động vội vàng mà không kiểm tra kỹ tính xác thực.

Deepfake không chỉ dừng lại ở các vụ lừa đảo đầu tư tài chính mà còn chuyển sang lừa đảo tình cảm. Trong đó, Deepfake được sử dụng để tạo ra các nhân vật hư cấu, tương tác với nạn nhân qua các cuộc gọi video; sau khi lấy được lòng tin của nạn nhân, kẻ lừa đảo sẽ yêu cầu chuyển tiền để giải quyết các tình huống khẩn cấp, chi phí đi lại, hoặc các khoản vay.

Trước tình hình trên, Cục An toàn thông tin khuyến cáo, người dân cảnh giác với những lời khuyên đầu tư từ người nổi tiếng trên mạng xã hội; cảnh giác với những tin nhắn, email hoặc cuộc gọi không xác định; cần quan sát kỹ những biểu cảm khuôn mặt không tự nhiên trong các video. Người dân cũng cần hạn chế đăng tải nội dung liên quan đến thông tin cá nhân lên mạng xã hội để tránh trường hợp bị các đối tượng xấu đánh cắp thông tin như hình ảnh, video hoặc giọng nói; đồng thời, cài đặt tài khoản ở chế độ riêng tư để bảo vệ thông tin cá nhân.

Ông Vũ Ngọc Sơn, Trưởng Ban Công nghệ (Hiệp hội An ninh mạng quốc gia) cho biết: “AI là xu hướng không thể ngăn cản. AI tốt hay xấu là do người sử dụng. Do đó, con người cần thích nghi với AI. Trong kế hoạch sắp tới của Hiệp hội, Deepfake do AI tạo là nội dung chúng tôi sẽ nghiên cứu kỹ và có những cảnh báo đến cộng đồng. Đặc biệt là các ảnh, clip được tạo bằng Deepfake bị sử dụng với mục đích tống tiền. Bộ Công an cũng gửi tin nhắn đến người dân đề cấp đến vấn đề này và khuyến cáo người dân cảnh giác khi nhận được các tin nhắn, cuộc gọi có nội dung như trên. Người dân không chuyển tiền khi bị đe dọa; khi phát hiện dấu hiệu bị lừa đảo, cưỡng đoạt tài sản cần nhanh chóng trình báo Cơ quan Công an nơi gần nhất và phản ánh qua ứng dụng VNeID”.

Ảnh minh hoạ.
Nhật Bản cấm cấy phôi thai đã qua chỉnh sửa gene
(Ngày Nay) - Ngày 4/12, một hội đồng chuyên gia của Chính phủ Nhật Bản cho biết nước này sẽ xây dựng quy định pháp lý cấm tuyệt đối việc cấy phôi thai đã chỉnh sửa gene vào cơ thể người hoặc động vật có vú, đồng thời áp dụng chế tài xử phạt đối với các vi phạm. Đây được xem là bước đi nhằm lấp khoảng trống pháp lý hiện nay và ngăn chặn việc tạo ra trẻ sơ sinh đã chỉnh sửa gene.
Nvidia công bố máy chủ AI mới có hiệu suất cao gấp 10 lần
Nvidia công bố máy chủ AI mới có hiệu suất cao gấp 10 lần
(Ngày Nay) - Nvidia đã công bố dữ liệu mới nhất cho thấy máy chủ trí tuệ nhân tạo (AI) mới của hãng có khả năng nâng cao hiệu suất của các mô hình AI tiên tiến, bao gồm những mô hình phổ biến từ Trung Quốc, lên đến 10 lần so với thế hệ máy chủ trước đó.
Nhà, đất đang rơi vào tay giới đầu cơ và trục lợi chính sách?
Nhà, đất đang rơi vào tay giới đầu cơ và trục lợi chính sách?
(Ngày Nay) -“Thị trường BĐS bị các đối tượng đầu cơ thao túng, đẩy giá, chính sách nhà ở xã hội bị trục lợi, giá nhà đất liên tục leo thang, vượt xa tầm với của người dân có nhu cầu ở thực dẫn tới tình trạng nhà, đất chủ yếu rơi vào tay giới đầu cơ và trục lợi chính sách”, là những vấn đề trăn trở được các chuyên gia BĐS và hoạch định chính sách bàn luận tại Diễn đàn “Xây dựng thị trường BĐS lành mạnh, bền vững – năm 2025” của Đài PTTH Hà Nội, nhằm tìm ra giải pháp chấn chỉnh, khắc phục.