Cơn bão Deepfake tăng “cấp” khiến nhiều người sập bẫy

WhiteHat Team

Administrators
Thành viên BQT
09/04/2020
85
553 bài viết
Cơn bão Deepfake tăng “cấp” khiến nhiều người sập bẫy
Một ngày nọ, bạn nhận được cuộc gọi của bạn mình hỏi vay tiền, qua cuộc gọi hình ảnh hẳn hoi, đúng khuôn mặt ấy, giọng nói ấy nhưng đó có đúng là bạn của bạn không? Chưa chắc đâu. Bởi đó có thể là sản phẩm của một công nghệ không mới nhưng đã được “nâng tầm” khiến bạn khó phân biệt được bạn “thật” hay bạn “pha ke”.

Deepfake – “con dao hai lưỡi”

deepfake 2.png

Deepfake đã nổi lên trong giới công nghệ từ năm 2017 khi có thể gán khuôn mặt của người này sang người khác với độ chân thực đến kinh ngạc. Chẳng hạn, bạn ghép mặt của Elon Musk vào thân hình của bạn mà không có chút tì vết nhờ sử dụng trí tuệ nhận tạo AI.

Ban đầu Deepfake sinh ra để phục vụ việc giải trí của mọi người. Tuy nhiên, cái gì cũng có hai mặt. Tội phạm mạng đã “vũ khí hóa” công nghệ này thành một công cụ phạm tội, lừa đảo tài chính. Tại Đức, ghi nhận trường hợp tội phạm đã sử dụng phần mềm tạo giọng nói Deepfake nhằm mạo danh ông chủ của một tập đoàn và yêu cầu CEO công ty phải thực hiện chuyển tiền cho đối tác người Hungary. Thế là, số tiền 243.000 USD (khoảng 5.7 tỷ đồng) đã được chuyển đi và không bao giờ quay trở lại.

Tưởng rằng những mánh khóe lừa đảo tinh vi, áp dụng công nghệ cao này chỉ có ở trên phim và tồn tại ở nước ngoài nhưng không, chiêu thức lừa đảo này đã lan tới Việt Nam dưới hình thức lừa chuyển tiền qua các cuộc gọi video.

Vừa qua, ghi nhận trường hợp chị V.T.M 26 tuổi (ngụ quận Long Biên - Hà Nội), nhận được tin nhắn mượn tiền từ tài khoản Facebook của người thân, với yêu cầu chuyển tiền vào một tài khoản ngân hàng của một người lạ với số tiền lên tới 75 triệu đồng. Mặc dù đã có sự cảnh giác, chị M thực hiện cuộc gọi video với tài khoản Facebook nêu trên để xác minh, nhưng hình ảnh xuất hiện lại đúng là người bạn thân, riêng chỉ có phần âm thanh không quá rõ, vì vậy chị M đã thực hiện chuyển tiền mà không biết mình đã "sập bẫy" của tội phạm lừa đảo.

Để thực hiện những vụ lừa đảo như này không phải là một sớm một chiều. Tội phạm mạng sẽ cần phải thăm dò và thu thập thông tin về mục tiêu, lên kịch bản tấn công và tiến hành thực hiện. Đó có thể là một tổ chức tội phạm chứ không thể một cá nhân riêng lẻ.

Kịch bản tấn công bài bản

Các chuyên gia WhiteHat đánh giá, để thực hiện được chiêu trò lừa đảo này sẽ có nhiều cách thức nhưng phổ biến có thể là đối tượng lừa đảo thực hiện hack tài khoản mạng xã hội (Facebook, Zalo, ....) của một người bất kỳ, sau đó thu thập toàn bộ thông tin về người này, những người thân quen.

Tiếp theo là lựa chọn mục tiêu tấn công. Từ những thông tin thu thập được, kẻ xấu sẽ cần đánh giá xem mục tiêu nào sẽ dễ sập bẫy, tinh vi hơn có thể nghiên cứu cả những thói quen hay cách nói chuyện với nhau của họ, từ đó tạo những hình ảnh và video ngắn giả mạo với giọng nói y hệt bằng cách sử dụng phần mềm Deepfake.

Sau đó, khi nạn nhân thực hiện các cuộc gọi video để xác thực thì các đối tượng sẽ phát các hình ảnh, clip đó trên điện thoại hướng mặt vào camera trước của điện thoại đang gọi với nạn nhân. Để không bị lộ, các cuộc điện thoại thường ngắn, chất lượng cuộc gọi thường rất thấp, chủ yếu chúng muốn cho nạn nhân nhìn thấy mặt của chủ tài khoản để tạo sự tin tưởng.

Ngoài ra, những tên tội phạm lừa đảo này còn có thể sử dụng những app chuyển đổi nhân vật có sử dụng phần mềm Deepfake để nói chuyện trực tiếp nạn nhân trong các cuộc gọi video. Nhưng để sử dụng phương thức này, đòi hỏi cần có những trang thiết bị có cấu hình cao cũng như một thời gian dài để thu thập hết các thông tin về nạn nhân.

Tại sao nhiều người dễ dàng “mắc bẫy”?

Với một kịch bản được chuẩn bị kỹ lưỡng như ở trên thì việc có nhiều người trở thành nạn nhân của tội phạm mạng sử dụng Deepfake là điều dễ hiểu.

Những tên tội phạm này không những đã tìm ra cách để “lách” được những khuyến cáo của cơ quan chức năng mà còn “nắm thóp” tâm lý của nạn nhân đúng là “mắt thấy tai nghe”. Khi nạn nhân nhận cuộc gọi thì họ đều nghe được giọng nói và hình ảnh của đúng người quen, vì vậy nạn nhân mới dễ dàng chuyển tiền mà không một chút nghi ngờ.

Công cụ hay con người đều có điểm yếu

Tội phạm mạng đã đánh đúng điểm yếu của nạn nhân nhưng bản thân Deepfake cũng có những hạn chế mà người dùng có thể tự nhận ra để tránh trở thành nạn nhân của các chiêu trò lừa đảo.

Theo các chuyên gia của WhiteHat, khi nhận được một cuộc gọi video nhờ chuyển tiền, người dùng cần đánh giá các yếu tố:
  • Khuôn mặt nhân vật thiếu tính cảm xúc và khá “trơ” khi nói.
  • Tư thế của nhân vật trông lúng túng, không tự nhiên, hoặc là hướng đầu và cơ thể của nhân vật trong video không nhất quán với nhau.
  • Màu da bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí.
  • Âm thanh sẽ không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh.
  • Tài khoản chuyển tiền không phải của người đang thực hiện cuộc gọi.
so sanh deepfake.jpg

Nếu có nghi ngờ, hãy thực hiện việc xác minh danh tính của người gọi:
  • Bằng cách đặt ra những câu hỏi mang tính riêng tư giữa hai người để kiểm chứng độ xác thực của cuộc hội thoại.
  • Gọi điện trực tiếp cho đối phương bằng số điện thoại của nhà mạng.
  • Trường hợp nghi vấn đối tượng giả mạo người thân trên mạng xã hội để lừa đảo, chiếm đoạt tài sản, cần báo ngay cho cơ quan công an gần nhất để được hỗ trợ, xử lý kịp thời.

“Phòng bệnh hơn chữa bệnh”

Đừng để cho tội phạm mạng có cơ hội để thực hiện hành vi của mình bằng cách:
  • Hạn chế chia sẻ công khai quá nhiều hình ảnh, clip cá nhân lên các trang mạng xã hội để tránh trường hợp bị kẻ xấu lợi dụng hình ảnh vào mục đích xấu.
  • Không vội tin tưởng các cuộc gọi video có hình ảnh bị mờ, chất lượng cuộc gọi xấu, thời lượng ngắn gần như không trao đổi được thông tin qua lại.
  • Luôn trang bị cho bản thân những kiến thức về các hình thức và các cách phát hiện ra các chiêu trò lừa đảo.
Từ khi ra đời cho đến nay, Deepfake đã được “vũ khí hóa” lên những cấp độ mới, ngày càng hiện đại và tinh vi hơn và người dùng cần nâng cao cảnh giác để tránh trở thành nạn nhân giữa vô số những cạm bẫy trên mạng.
Theo WhiteHat
 
Chỉnh sửa lần cuối:
Mời các bạn tham gia Group WhiteHat để thảo luận và cập nhật tin tức an ninh mạng hàng ngày.
Lưu ý từ WhiteHat: Kiến thức an ninh mạng để phòng chống, không làm điều xấu. Luật pháp liên quan
Thẻ
deepfake
Bên trên