Sự bùng nổ của các nền tảng mở và chatbot AI mang lại nhiều lợi ích cho doanh nghiệp, nhưng cũng kéo theo rủi ro bảo mật ngày càng tinh vi. Trong đó, “đầu độc nội dung” đang nổi lên như một hình thức tấn công nguy hiểm, có thể khiến AI bị thao túng và rò rỉ thông tin quan trọng nếu không được bảo vệ đúng cách.
Chatbot AI dễ bị “hack” nếu không kiểm soát nội dung đầu vào
Tại sự kiện phát triển hạ tầng số và phần mềm mã nguồn mở diễn ra ngày 26/7 tại Hà Nội, ông Đào Việt Hùng – Giám đốc quốc gia của Akamai Technologies Việt Nam – cảnh báo về một hình thức tấn công mới nhắm vào chatbot AI: “đầu độc nội dung”.
Theo ông Hùng, nhiều doanh nghiệp Việt Nam đang tích cực tích hợp chatbot AI vào hệ thống nhờ tính tùy biến cao của các nền tảng mã nguồn mở. Tuy nhiên, AI không chỉ học từ dữ liệu có sẵn, mà còn từ những gì người dùng tương tác. Lợi dụng điều này, kẻ xấu có thể liên tục đặt câu hỏi sai lệch hoặc cung cấp thông tin giả để “dạy lại” chatbot, khiến hệ thống học lệch hướng và trả lời sai lệch.
Những tình huống thật – Nguy cơ không còn là lý thuyết
Một ví dụ điển hình được ông Hùng chia sẻ: chatbot bán hàng của một hãng ôtô bị “lừa” bán xe mới với giá chỉ một USD sau khi người dùng liên tục đánh lạc hướng và thao túng ngữ cảnh hội thoại. Trong một trường hợp khác, hacker có thể trích xuất tài liệu nội bộ chỉ bằng chuỗi câu hỏi được soạn khéo léo – khai thác đúng điểm mù trong phản hồi AI.
Nền tảng mở: Cơ hội đổi mới hay lỗ hổng bảo mật?
Các phần mềm mã nguồn mở như Kubernetes, Linux, OpenStack, Ceph hay OpenTelemetry giúp doanh nghiệp tiết kiệm chi phí, tăng tốc phát triển sản phẩm. Tuy nhiên, vì mã nguồn công khai nên nếu không có lớp bảo mật phù hợp, chúng dễ trở thành mảnh đất màu mỡ cho các cuộc tấn công.
Ông Vũ Thế Bình – Phó chủ tịch kiêm Tổng thư ký Hiệp hội Internet Việt Nam – cho biết trên 90% doanh nghiệp tại Việt Nam đang sử dụng phần mềm mã nguồn mở ở nhiều cấp độ khác nhau. Khảo sát của Red Hat năm 2024 cũng cho thấy 82% lãnh đạo công nghệ tin rằng nền tảng mở là then chốt cho chuyển đổi số.
Giải pháp: Dùng AI để bảo vệ AI
Trước nguy cơ trên, ông Hùng đề xuất giải pháp “AI bảo vệ AI” – tức sử dụng hệ thống AI để giám sát và phân tích chính những dữ liệu đầu vào của chatbot. Hệ thống này sẽ giúp:
- Tự động phân loại dữ liệu an toàn
- Phát hiện nội dung có nguy cơ “đầu độc” AI
- Ngăn chặn truy cập bất thường và xử lý kịp thời các yêu cầu nguy hiểm
Smarthome| Kết luận
AI càng thông minh, thì rủi ro bị lợi dụng càng lớn. Việc doanh nghiệp sử dụng nền tảng mở cần đi kèm với các lớp bảo mật AI chuyên biệt, tránh để chatbot bị khai thác, học sai, hoặc trở thành “lỗ hổng vô hình” trong hệ thống. Đầu tư cho bảo mật AI ngay từ đầu không chỉ là lựa chọn công nghệ, mà còn là chiến lược sống còn trong thời đại dữ liệu. Theo dõi SmartHome Ario – Nhà Thông Minh Thế Hệ Mới để cập nhật thêm tin tức mới nhất.
Nguồn: VNE