prompt injection

  1. WhiteHat Team

    Cảnh báo kỹ thuật tấn công mới có thể đầu độc ChatGPT Atlas và các trình duyệt AI khác

    Một kỹ thuật tấn công mới mang tên “agent-aware cloaking” đang khiến giới an ninh mạng lo ngại. Chiêu trò này khiến các hệ thống AI có thể vô tình học hoặc trích dẫn dữ liệu bị thao túng, từ đó làm sai lệch kết quả tìm kiếm, tuyển dụng, đánh giá uy tín hay ra quyết định tự động. Hiểu đơn...
  2. WhiteHat Team

    “Zero-click AI”: Khi chatbot doanh nghiệp vô tình trở thành "gián điệp" nội bộ

    Một phát hiện mới từ một nhóm các nhà nghiên cứu bảo mật, đang khiến giới doanh nghiệp phải nhìn lại cách họ triển khai các trợ lý ảo tự động (AI agent). Trong thử nghiệm, các nhà nghiên cứu đã sao chép lại một chatbot chăm sóc khách hàng trên nền tảng Microsoft Copilot Studio và chứng minh rằng...
  3. WhiteHat Team

    Microsoft 365 Copilot: Lỗ hổng Prompt Injection gây rò rỉ email doanh nghiệp

    Một lỗ hổng tinh vi trong Microsoft 365 Copilot (M365 Copilot) vừa được phát hiện, cho phép kẻ tấn công đánh cắp dữ liệu nhạy cảm của tenant, bao gồm cả email gần đây, thông qua kỹ thuật tiêm nhiễm prompt gián tiếp. Theo bài viết của nhà nghiên cứu Adam Logue, lỗ hổng khai thác cách Copilot tích...
  4. WhiteHat Team

    Gemini AI bị khai thác bằng Prompt Injection: Nguy cơ mất dữ liệu, bị điều khiển từ xa

    Các nhà nghiên cứu bảo mật vừa công bố một kỹ thuật tấn công mới mang tên TARA (Targeted Promptware Attacks), cho phép khai thác lỗ hổng trong hệ thống trợ lý AI Gemini của Google thông qua các lời mời và email tưởng chừng vô hại. Kỹ thuật này lợi dụng cơ chế xử lý ngữ cảnh của AI để chèn lệnh...
Bên trên