"Deepfake và video call: Lợi dụng công nghệ để lừa đảo"

Hoàng Huyền
Nhận được cuộc gọi, nghe được giọng nói và thấy được hình ảnh qua video call của người thân, tuy nhiên một số người vẫn bị lừa chuyển khoản mất tiền, vì đó là do công nghệ, chứ không phải là người thật.

"Deepfake và video call: Lợi dụng công nghệ để lừa đảo"

deepfake-va-video-call-loi-dung-cong-nghe-de-lua-dao-dulichgiaitri-phap-luat-1678952324.jpg
Nhận được cuộc gọi, nghe được giọng nói và thấy được hình ảnh qua video call của người thân, tuy nhiên một số người vẫn bị lừa chuyển khoản mất tiền

Hiện tại, công nghệ AI, đặc biệt là Deepfake, ngoài phục vụ mục đích hỗ trợ con người rất nhiều trong cuộc sống, thì nó cũng là công cụ để một số thành phần sử dụng với mục đích xấu, như lừa đảo, giả mạo, bôi nhọ, thậm chí làm tin giả dạng video.

Ông Ngô Minh Hiếu, chuyên gia kỹ thuật tại Trung tâm Giám sát an toàn không gian mạng quốc gia (NCSC) cho biết, trung tâm có nhận được báo cáo về những vụ việc lừa đảo qua videocall từ năm ngoái đến nay.

Theo ông Hiếu, công nghệ trí tuệ nhân tạo đang giúp ích rất nhiều trong đời sống của con người. Tuy nhiên những kẻ xấu đã lợi dụng công nghệ AI để tạo ra hình ảnh sao chép giọng nói, từ việc chiếm đoạt tài khoản Facebook, Instagram... sau đó nghiên cứu tin nhắn, cách xưng hô, lịch sử giao dịch... để tạo ra những cuộc gọi giả và lừa tiền người thân, gia đình của tài khoản bị hack, cho đến gọi điện trực tiếp tới người bị hại để dựng lên những tình huống khẩn cấp cần chuyển tiền.

Cụ thể, sau khi hack được Facebook của nạn nhân, kẻ lừa đảo đã chủ động nhắn tin trước để mượn tiền, rồi chủ động gọi videocall tới nạn nhân với đoạn video Deepfake và tắt giữa chừng khoảng một vài giây, sau đó nói do bị mất sóng điện thoại... Lúc này, nạn nhân đã tin tưởng và chuyển khoản tiền vì bên kia đang cần mượn tiền gấp.

Ông Ngô Tuấn Anh, Chủ tịch HĐQT, CEO Công ty cổ phần An ninh mạng thông minh Smart Cyber Security – người đã có gần 20 năm làm việc trong lĩnh vực an toàn thông tin mạng tại Bkav cho biết, lừa đảo qua mạng hiện có thể chia thành 2 cách thức chính, đó là giả danh cơ quan điều tra, tòa án... và đánh ‘lòng tham’ của một số nạn nhân (như nhận phần thưởng lớn, dễ dàng kiếm tiền...).

Với 2 cách thức này, có nhiều kịch bản áp dụng khác nhau, trong đó có kịch bản người dùng sẽ được khuyến cáo về việc xác minh chéo thông tin bằng cách gọi videocall. Và chính kẻ lừa đảo đã nghĩ ra cách thức "hóa giải" này để lừa đảo nạn nhân.

Dấu hiệu nhận biết cuộc gọi videocall giả mạo

Theo chuyên gia Ngô Tuấn Anh, người dùng cần cảnh giác không bấm vào các đường link lạ. Nếu chuyển tiền thì có một cách xác minh đơn giản và hiệu quả là xem trên ứng dụng internet banking của ngân hàng có hiển thị đúng thông tin người thân, bạn bè khi gõ số tài khoản thì mới chuyển.

Chuyên gia Ngô Minh Hiếu lưu ý một dấu hiệu để nhận biết và phòng tránh cuộc gọi Deepfake, đó là khuôn mặt của nhân vật trong video thiếu tính cảm xúc và khá "trơ" khi nói, hoặc tư thế lúng túng, không tự nhiên, hoặc hướng đầu và cơ thể của nhân vật trong video không nhất quán với nhau.

Những điều này có thể sẽ là điểm rất đáng nghi ngờ, chúng ta nên dừng lại để suy nghĩ. Bên cạnh đó, chúng ta cũng có thể thấy màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí… tất cả điều này khiến video trông rất giả tạo và không tự nhiên.

Âm thanh cũng là một vấn đề có thể xảy ra trong video, có thể âm thanh không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh. Cuối cùng, có thể xảy ra tình huống mà tài khoản chuyển tiền không phải của người đang thực hiện cuộc gọi. Và thường kẻ gian sẽ ngắt giữa chừng cuộc gọi, bảo là mất sóng, sóng yếu...

"Các yếu tố kỳ lạ như trên là báo hiệu đỏ của Deepfake. Vì vậy, người sử dụng cần luôn cảnh giác và tuyệt đối bình tĩnh và chủ động xác thực bằng cách gọi điện thoại trực tiếp hoặc facetime ít nhất trên 1 phút. Sau đó đặt ra những câu hỏi cá nhân mà chỉ có mình và người kia biết. Vì Deepfake sẽ không thể giả được một cuộc trò chuyện thật sự trong thời gian thực mà có tính chuẩn xác cao, dù sao cảm xúc hay biểu cảm của AI hay Deepfake vẫn không thể bắt chước được như người thật tính tới thời điểm này", chuyên gia Ngô Minh Hiếu chia sẻ.

Trong tương lai, không thể lường trước được tội phạm mạng ở Việt Nam sẽ biết nhiều hơn cách làm, cách đánh cắp video, hình ảnh, rồi cắt ghép và dùng công cụ để tạo Deepfake. Lúc đó sẽ tạo ra một làn sóng lừa đảo thế hệ 4.0 mà sẽ khiến nhiều người lâu nay rất khó bị lừa, cũng sẽ dễ dàng là đối tượng bị lừa, nhất là những người ở độ tuổi trung niên trở niên vì họ thiếu nhận thức về an toàn thông tin và khó nhận biết kiểu lừa này, nếu không có được sự chia sẻ hướng dẫn an toàn trên không gian mạng.

Làm gì để dữ liệu khuôn mặt và giọng nói không bị lợi dụng cho Deepfake?

Theo ông Ngô Minh Hiếu, cách tốt nhất để tránh bị làm giả Deepfake, người sử dụng nên hạn chế chia sẻ hình ảnh hay video cá nhân lên trên mạng; đồng thời luôn bảo mật tài khoản mạng xã hội, email bằng mật khẩu có độ khó cao.

Nếu bị làm giả Deepfake, người sử dụng nên thông báo ngay lập tức cho mọi người biết và báo cơ quan chức năng tại địa chỉ canhbao.ncsc.gov.vn hoặc báo lên dự án chongluadao https://chongluadao.vn; đồng thời cần nâng cao nhận thức về nhận biết lừa đảo trên không gian mạng tại: dauhieuluadao.com.

Nếu chia sẻ video hay clip trên mạng nên làm méo tiếng của mình, thay bằng tiếng robot hoặc AI voice, để tránh kẻ xấu biết giọng nói thật của mình.

Hiền Minh