-
09/04/2020
-
125
-
1.559 bài viết
Quyền Giám đốc CISA làm rò rỉ dữ liệu nhạy cảm do lạm dụng đặc quyền sử dụng ChatGPT
Nếu đây là một tình huống giả lập trong khóa huấn luyện an ninh thông tin, chắc hẳn người hướng dẫn sẽ dừng lại ở slide đầu tiên và nói: “Đây là ví dụ điển hình của việc không bao giờ được làm”. Trớ trêu thay, câu chuyện này lại xảy ra ngoài đời thật và nhân vật chính không phải một nhân viên mới, mà là quyền Giám đốc Cơ quan An ninh mạng và Hạ tầng Mỹ (CISA).
Ngay khi tiếp quản CISA vào tháng 5.2025, Madhu Gottumukkala đã yêu cầu được đặc cách sử dụng ChatGPT, trong khi toàn bộ nhân viên Bộ An ninh Nội địa Mỹ (DHS) khi đó vẫn bị cấm sử dụng các nền tảng AI công khai vì lo ngại rủi ro rò rỉ dữ liệu. Quyết định này được xem như một ngoại lệ ở cấp cao nhất, với mục tiêu tận dụng AI để hỗ trợ công việc điều hành và phân tích. Trên giấy tờ, đó là một bước đi “theo kịp thời đại”. Trong thực tế, nó mở ra một kịch bản mà chính CISA thường xuyên cảnh báo các tổ chức khác phải tránh.
Vào giữa tháng 7/2025, Madhu Gottumukkala, quyền Giám đốc Cơ quan An ninh mạng và Hạ tầng Mỹ (CISA), đã tải lên một số tài liệu hợp đồng chính phủ vào ChatGPT công khai. Những tài liệu này được gắn nhãn “for official use only”, tức không dành cho công chúng và không được phép xuất hiện trên các nền tảng bên ngoài hệ thống liên bang. Không phải vì nội dung tuyệt mật, mà vì chúng cần được kiểm soát chặt chẽ về phạm vi tiếp cận.
Không ai phát hiện ra ngay lập tức. Không có thông báo lỗi, không có cơ chế nhắc nhở rằng dữ liệu đang được đưa ra khỏi vùng an toàn. ChatGPT vẫn phản hồi như thường lệ, nhanh, gọn và thân thiện. Sự tiện lợi khiến mọi thứ trông có vẻ đúng đắn, ít nhất là trong khoảnh khắc đó.
Vài tuần sau, câu chuyện rẽ sang hướng khác. Đầu tháng 8, hệ thống giám sát của Bộ An ninh Nội địa Mỹ (DHS) bắt đầu ghi nhận những tín hiệu bất thường. Các cảnh báo DLP lần lượt được kích hoạt, chỉ ra rằng dữ liệu nhạy cảm đã rời khỏi các môi trường được phê duyệt. Không cần phân tích hành vi tấn công, không cần truy vết đối tượng bên ngoài. Log hệ thống dẫn thẳng về một tài khoản nội bộ có quyền cao.
Vấn đề không nằm ở hệ thống hay cơ chế giám sát. Chúng hoạt động đúng như được thiết kế. Điều đáng nói là sai sót xuất phát từ chính người có trách nhiệm cao nhất trong việc đặt ra và bảo vệ các nguyên tắc an ninh. Một thao tác hoàn toàn hợp lệ về mặt kỹ thuật, được thực hiện bởi người có quyền truy cập cao nhất, lại vi phạm đúng những quy tắc căn bản mà CISA vẫn yêu cầu các cơ quan khác phải tuân thủ tuyệt đối.
Các tài liệu không chứa thông tin tình báo phân loại. Không có bằng chứng cho thấy dữ liệu bị khai thác hay lan truyền có chủ đích. Nhưng sự cố vẫn được DHS đánh giá là một thất bại nghiêm trọng về an ninh vận hành. Bởi CISA không phải một cơ quan bất kỳ. Đây là tuyến phòng thủ mạng của chính phủ liên bang, nơi đặt ra tiêu chuẩn và thông điệp cho toàn bộ hệ thống liên bang về cách bảo vệ dữ liệu.
Sự việc nhanh chóng được báo cáo lên lãnh đạo DHS. Quyền Tổng cố vấn Joseph Mazzara, CIO Antoine McCord và CIO của CISA là Robert Costello đã mở các đánh giá chính thức nhằm xác định mức độ ảnh hưởng tới tư thế an ninh của chính phủ Mỹ. Sau đó, Cố vấn trưởng CISA Spencer Fisher trực tiếp làm việc với Gottumukkala để rà soát lại quy trình xử lý thông tin nhạy cảm, những nguyên tắc vốn được coi là nền tảng của an ninh thông tin liên bang.
Sau sự cố, DHS khẳng định quyền truy cập ChatGPT của Gottumukkala chỉ mang tính tạm thời và đã bị thu hồi. Không có khủng hoảng truyền thông, không có tuyên bố gay gắt hay biện pháp kỷ luật công khai. Nhưng câu chuyện này không dừng lại ở phạm vi nội bộ.
Nó phản ánh một vấn đề đang diễn ra âm thầm ở nhiều tổ chức khi các công cụ AI ngày càng len sâu vào quy trình làm việc. Ranh giới an toàn không còn chỉ nằm ở tường lửa hay hệ thống phát hiện xâm nhập, mà nằm ở cách con người phân biệt giữa một công cụ tiện lợi và một môi trường đủ điều kiện để xử lý dữ liệu nhạy cảm. Một nền tảng hiệu quả cho công việc hằng ngày không mặc nhiên trở thành nơi an toàn cho những thông tin cần được kiểm soát nghiêm ngặt.
Điều câu chuyện tại CISA để lại không phải là lời kêu gọi quay lưng với AI, mà là lời nhắc về cách quản trị ngoại lệ. Khi quyền sử dụng được trao ở cấp cao nhất mà thiếu cơ chế kiểm soát tương xứng, ngoại lệ rất nhanh biến thành tiền lệ. Và tiền lệ, một khi lan xuống bên dưới, có thể làm sụp đổ kỷ luật an ninh vốn được xây dựng trong nhiều năm.
Trong các hệ thống xử lý dữ liệu nhạy cảm, rủi ro lớn nhất không phải lúc nào cũng đến từ một lỗ hổng zero-day. Đôi khi, nó bắt đầu từ khoảnh khắc người đứng đầu phá vỡ chính những nguyên tắc cơ bản mà họ yêu cầu cả tổ chức phải tuân thủ tuyệt đối. Trong kỷ nguyên AI, cái giá của khoảnh khắc ấy có thể không đến ngay lập tức, nhưng luôn tồn tại.
Tổng hợp