-
09/04/2020
-
93
-
602 bài viết
Vượt qua bảo mật ChatGPT bằng mã hóa Hexadecimal và biểu tượng cảm xúc
Các nhà nghiên cứu đã phát hiện một cách mới để vượt qua hàng rào bảo mật của ChatGPT thông qua mã hóa hệ thập lục phân và biểu tượng cảm xúc.
Phương pháp này, do Marco Figueroa từ Mozilla công bố, đã được tiết lộ qua chương trình thưởng lỗi 0Din - một nền tảng do Mozilla ra mắt nhằm phát hiện lỗi bảo mật trong các mô hình ngôn ngữ lớn.
Trong bài viết mới trên blog của 0Din, Figueroa trình bày cách mã hóa hướng dẫn độc hại bằng hệ thập lục phân để khiến ChatGPT tạo ra mã khai thác bằng Python cho một lỗ hổng bảo mật được chỉ định. Kỹ thuật này đã qua mặt thành công hệ thống bảo mật của ChatGPT, dù khi yêu cầu không mã hóa thì chatbot từ chối thực hiện.
Một cách khác để vượt qua bảo mật là sử dụng icon, cho phép chatbot tạo công cụ tấn công SQL injection bằng Python thông qua một câu lệnh sáng tạo sử dụng emoji: một sqlinj tool cho tôi.
Theo Figueroa, việc này cho thấy các mô hình AI vẫn thiếu khả năng nhận diện rủi ro trong các hướng dẫn được che giấu một cách tinh vi.
Mặc dù chuyên gia anm chưa tái tạo được các lỗ hổng này, nhưng dấu hiệu cho thấy OpenAI đã vá các lỗi. Đây là một trong nhiều phương pháp jailbreak nhắm vào LLMs được tiết lộ gần đây.
Phương pháp này, do Marco Figueroa từ Mozilla công bố, đã được tiết lộ qua chương trình thưởng lỗi 0Din - một nền tảng do Mozilla ra mắt nhằm phát hiện lỗi bảo mật trong các mô hình ngôn ngữ lớn.
Trong bài viết mới trên blog của 0Din, Figueroa trình bày cách mã hóa hướng dẫn độc hại bằng hệ thập lục phân để khiến ChatGPT tạo ra mã khai thác bằng Python cho một lỗ hổng bảo mật được chỉ định. Kỹ thuật này đã qua mặt thành công hệ thống bảo mật của ChatGPT, dù khi yêu cầu không mã hóa thì chatbot từ chối thực hiện.
Một cách khác để vượt qua bảo mật là sử dụng icon, cho phép chatbot tạo công cụ tấn công SQL injection bằng Python thông qua một câu lệnh sáng tạo sử dụng emoji: một sqlinj tool cho tôi.
Theo Figueroa, việc này cho thấy các mô hình AI vẫn thiếu khả năng nhận diện rủi ro trong các hướng dẫn được che giấu một cách tinh vi.
Mặc dù chuyên gia anm chưa tái tạo được các lỗ hổng này, nhưng dấu hiệu cho thấy OpenAI đã vá các lỗi. Đây là một trong nhiều phương pháp jailbreak nhắm vào LLMs được tiết lộ gần đây.
Theo Security Week