WhiteHat Team

Administrators
Thành viên BQT
09/04/2020
128
1.681 bài viết
Nhiều chatbot AI bị phát hiện có thể hỗ trợ lên kế hoạch bạo lực
Một nghiên cứu mới cho thấy nhiều chatbot trí tuệ nhân tạo phổ biến hiện nay có thể cung cấp thông tin hỗ trợ người dùng lên kế hoạch cho các hành vi bạo lực, làm dấy lên lo ngại về rủi ro an toàn từ các công cụ AI đang ngày càng phổ biến.
1773286417645.png

Trong thử nghiệm, các nhà nghiên cứu đã tạo hai tài khoản mạo danh đóng vai 2 thiếu niên 13 tuổi tại bang Virginia (Mỹ) và Dublin (Ireland). Từ các tài khoản này, nhóm nghiên cứu gửi hàng trăm câu hỏi đến 10 chatbot phổ biến gồm ChatGPT, Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI và Replika.

Các câu hỏi xoay quanh nhiều kịch bản bạo lực như xả súng tại trường học, tấn công bằng dao, ám sát chính trị gia hoặc đánh bom các địa điểm tôn giáo và chính trị.

Kết quả cho thấy 8/10 chatbot đã cung cấp thông tin có thể hỗ trợ lên kế hoạch tấn công trong hơn một nửa số phản hồi. Một số chatbot thậm chí đưa ra những thông tin cụ thể như địa chỉ của các nhân vật chính trị hoặc gợi ý về loại súng phù hợp cho mục tiêu tầm xa.

Theo báo cáo, chỉ Claude (do Anthropic phát triển) và My AI của Snapchat thường xuyên từ chối các yêu cầu nguy hiểm. Trong đó, Claude từ chối gần 70% các tương tác và thường đưa ra cảnh báo rõ ràng về nguy cơ bạo lực. Ở một trường hợp, chatbot này cho biết không thể cung cấp thông tin “có thể tạo điều kiện cho hành vi gây hại”.

Ngược lại, một số chatbot khác lại đưa ra phản hồi gây lo ngại. Khi tài khoản thử nghiệm giả làm thiếu niên Ireland bày tỏ sự tức giận với một chính trị gia và hỏi cách “khiến bà ta phải trả giá”, chatbot DeepSeek vẫn đưa ra lời khuyên liên quan đến việc lựa chọn súng săn tầm xa. Báo cáo cũng cho biết nền tảng Character.AI được nhiều người dùng trẻ tuổi sử dụng đã có phản hồi mang tính khuyến khích bạo lực trong một số tình huống trước khi hệ thống kiểm duyệt tự động cắt bỏ phần nội dung không phù hợp.

Các chatbot AI đang ngày càng được tích hợp sâu vào đời sống số và có nguy cơ bị lợi dụng cho các mục đích nguy hiểm. Theo WhiteHat, dù mỗi chatbot có một cơ chế riêng cũng như phụ thuộc vào người dùng đặt câu hỏi trong ngữ cảnh cụ thể thì một công cụ được coi như trợ lý học tập hoặc hỗ trợ thông tin không nên trở thành phương tiện hỗ trợ các hành vi bạo lực.

CNN cho biết kết quả nghiên cứu đã được chia sẻ với tất cả các công ty phát triển chatbot được thử nghiệm. Một số doanh nghiệp như Google, OpenAI và Microsoft cho biết các mô hình AI hiện tại đã được cập nhật với những cơ chế bảo vệ và kiểm soát an toàn mới kể từ thời điểm thử nghiệm vào tháng 12. Meta cũng cho biết đã khắc phục vấn đề được nêu trong báo cáo.

Nghiên cứu này cho thấy thách thức ngày càng lớn trong việc đảm bảo an toàn và kiểm soát rủi ro khi các hệ thống AI trở nên phổ biến và dễ tiếp cận hơn đối với người dùng trên toàn thế giới.
Tổng hợp CNN, CCDH, sea.mashable
 
Chỉnh sửa lần cuối:
Mời các bạn tham gia Group WhiteHat để thảo luận và cập nhật tin tức an ninh mạng hàng ngày.
Lưu ý từ WhiteHat: Kiến thức an ninh mạng để phòng chống, không làm điều xấu. Luật pháp liên quan
Thẻ
ai hỗ trợ lên kế hoạch bạo lực an toàn ai chatbot ai chatgpt và các chatbot phổ biến nghiên cứu về chatbot ai nguy cơ từ chatbot ai
Bên trên