DeepSeek R1 – Trợ lý AI mới dễ dàng bị lợi dụng bởi các lời nhắc gây hại

DeepSeek, công ty AI của Trung Quốc, gần đây đã ra mắt DeepSeek R1 – phiên bản trợ lý AI mới nhất của họ. Tuy nhiên, các chuyên gia bảo mật đã phát hiện ra rằng DeepSeek R1 có thể dễ dàng bị “qua mặt” bởi 100% các lời nhắc độc hại, gây rủi ro cho người dùng.

DeepSeek R1 – Trợ lý AI mới dễ dàng bị lợi dụng bởi các lời nhắc gây hại

1. Công bố từ đội ngũ nghiên cứu Cisco

  • Sử dụng các kỹ thuật bẻ khóa thuật toán để thử nghiệm DeepSeek R1
  • 50 lời nhắc độc hại ngẫu nhiên từ tập dữ liệu HarmBench được chia thành 6 loại hành vi có hại
  • Kết quả: DeepSeek R1 không chặn được bất kỳ lời nhắc gây hại nào, tỷ lệ tấn công thành công là 100%

2. Nghiên cứu từ Adversa AI đưa ra kết luận tương tự

  • DeepSeek dễ bị tấn công bằng nhiều chiến thuật bẻ khóa
  • Từ các thủ thuật ngôn ngữ đơn giản đến lời nhắc phức tạp do AI tạo ra

3. Nguyên nhân: Xây dựng AI với giá rẻ

  • Theo chuyên gia, việc xây dựng AI với giá rẻ là lý do khiến DeepSeek dễ bị lời nhắc độc hại qua mặt
  • DeepSeek được cho là chỉ sử dụng khoảng 6 triệu USD để xây dựng các mô hình AI của mình
  • Tuy nhiên, con số thực tế có thể hơn một tỷ USD theo phân tích của SemiAnalysis

4. Vấn đề bảo mật dữ liệu người dùng

  • Công ty an ninh mạng Wiz cảnh báo DeepSeek để hơn một triệu dòng dữ liệu người dùng không có biện pháp bảo mật
  • Dữ liệu bao gồm các khóa phần mềm kỹ thuật số và nhật ký trò chuyện ghi lại yêu cầu từ người dùng
  • DeepSeek đã nhanh chóng có biện pháp bảo mật dữ liệu sau khi được cảnh báo

5. So sánh với các mô hình AI khác

  • Nghiên cứu của Cisco cho thấy Llama 3.1 405B của Meta có tỷ lệ bị lời nhắc độc hại qua mặt tới 96%
  • GPT-4o của OpenAI là 86%
  • Claude 3.5 Sonet và O1-preview của OpenAI chỉ ở mức 36% và 26%

Sự ra mắt của DeepSeek R1 với tỷ lệ bị lời nhắc độc hại qua mặt lên tới 100% đã gióng lên hồi chuông cảnh báo về tầm quan trọng của việc đầu tư vào an toàn và bảo mật khi phát triển các mô hình AI. Người dùng cần thận trọng khi sử dụng các trợ lý AI mới, đồng thời các công ty AI cần nỗ lực hơn nữa để bảo vệ người dùng khỏi các rủi ro tiềm ẩn.

Leave a Reply

Your email address will not be published. Required fields are marked *