Liệu các giải pháp bảo mật đã đủ mạnh để đối phó với các mối đe dọa do AI tạo ra?

WhiteHat Team

Administrators
Thành viên BQT
09/04/2020
93
600 bài viết
Liệu các giải pháp bảo mật đã đủ mạnh để đối phó với các mối đe dọa do AI tạo ra?
Trí tuệ nhân tạo (AI) - từ một khái niệm của tương lai đã nhanh chóng trở thành hiện thực, và giờ có thể đang là vũ khí mạnh mẽ mà nhiều kẻ xấu lợi dụng. Ngày nay, các cuộc tấn công dựa trên AI như giả mạo deepfake ngày càng gia tăng, thách thức các biện pháp bảo mật truyền thống.

1730102888951.png

Cùng điểm lại một số vụ gian lận giả mạo đáng báo động dựa trên AI:
  • 25 triệu USD bị đánh cắp qua cuộc gọi video deepfake mạo danh lãnh đạo công ty.
  • Công ty an ninh mạng KnowBe4 bị lừa tuyển dụng một kẻ tấn công đến từ Bắc Triều Tiên thông qua công nghệ deepfake.
  • CEO của công ty quảng cáo lớn nhất thế giới WPP bị deepfake tấn công để lấy thông tin cá nhân và tống tiền thông qua hội nghị trực tuyến.
  • Kẻ xấu sử dụng công nghệ deepfake để giả mạo một nhà ngoại giao Ukraine trong cuộc gọi với Thượng nghị sĩ Hoa Kỳ, với mục đích can thiệp vào quá trình bầu cử.
Như vậy, những kẻ tấn công luôn tận dụng mọi công cụ sẵn có để xâm nhập vào các tổ chức. Trong đó, công nghệ AI đã giúp chúng dễ dàng thực hiện các cuộc tấn công hơn và đồng thời tiết kiệm chi phí.

Hiện nay, những biện pháp bảo mật đang tồn tại một số hạn chế trong việc đối phó với mối đe dọa từ deepfake, đặc biệt là khi công nghệ AI phát triển.
  • Cuộc chạy đua vũ trang AI: Đây là sự cạnh tranh giữa các công cụ phát hiện deepfake và công nghệ tạo ra deepfake. Cả hai liên tục được cải tiến để vượt qua nhau, nên không bên nào có thể duy trì được lợi thế lâu dài. Điều này làm cho các biện pháp phát hiện deepfake khó hiệu quả trong thời gian dài.
  • Phát hiện xác suất: Công nghệ phát hiện deepfake hiện nay chỉ có khả năng đưa ra các dự đoán theo xác suất, không hoàn toàn chính xác tuyệt đối, và do đó có thể bỏ sót một số trường hợp deepfake hoặc nhận diện sai.
  • Gánh nặng cho người dùng cuối: Khi các cuộc tấn công ngày càng tinh vi, không thể trông chờ vào sự cảnh giác của người dùng cuối để phát hiện ra mối đe dọa, vì người dùng khó có thể tự nhận biết được các trò gian lận phức tạp do AI tạo ra.
Về tổng thể, các biện pháp hiện tại còn nhiều điểm yếu và khó có thể cung cấp sự bảo vệ toàn diện trước các cuộc tấn công deepfake được hỗ trợ bởi AI.

Gian lận mạo danh AI là một biểu hiện khác của việc bảo mật danh tính chưa đủ mạnh. Trong các cuộc tấn công, kẻ tấn công phải xâm phạm danh tính của người dùng hợp pháp mà không bị phát hiện để thuyết phục nạn nhân, nhằm đạt được lợi ích tài chính hoặc ảnh hưởng chính trị.

Vì vậy, có thể trong tương lai, cần xuất hiện các nền tảng bảo mật danh tính được thiết kế an toàn, giúp giảm thiểu rủi ro gian lận và giả mạo nhờ xác thực người dùng bằng thông tin chống lừa đảo và khóa gắn với thiết bị. Chỉ các thiết bị đã qua kiểm tra bảo mật mới được phép truy cập vào tài nguyên của công ty, nâng cao an toàn trong các hoạt động nhạy cảm như hội nghị truyền hình. Ngoài ra, nền tảng này cần tín hiệu rủi ro theo thời gian thực để đưa ra quyết định truy cập chính xác và linh hoạt, từ đó cải thiện khả năng phòng thủ chủ động trước các mối đe dọa ngày càng tinh vi.

Theo The Hacker News
 
Mời các bạn tham gia Group WhiteHat để thảo luận và cập nhật tin tức an ninh mạng hàng ngày.
Lưu ý từ WhiteHat: Kiến thức an ninh mạng để phòng chống, không làm điều xấu. Luật pháp liên quan
Thẻ
công nghệ ai deepfake
Bên trên