Các nhà nghiên cứu an ninh mạng của Radware vừa phát hiện một lỗ hổng nghiêm trọng trong công cụ Deep Research của ChatGPT, có thể khiến tin tặc truy xuất dữ liệu Gmail của người dùng nếu họ cấp quyền kết nối.

Deep Research là tính năng cao cấp được OpenAI giới thiệu hồi tháng 2, cho phép ChatGPT tự động phân tích khối lượng thông tin lớn và thực hiện các nghiên cứu trực tuyến theo yêu cầu của người dùng. Đặc biệt, công cụ này có thể kết nối trực tiếp với tài khoản Gmail nếu người dùng cho phép, giúp tìm kiếm và tổng hợp dữ liệu nhanh hơn.

Tuy nhiên, nhóm chuyên gia của Radware cho biết, lỗ hổng bảo mật đã mở đường cho tin tặc gửi email chứa mã ẩn đến tài khoản Gmail của nạn nhân. Khi đó, Deep Research có thể bị lợi dụng để truy xuất thông tin cá nhân như họ tên, địa chỉ, lịch sử trao đổi… và tự động gửi dữ liệu này tới máy chủ của kẻ tấn công.

Đáng chú ý, người dùng không cần bấm vào bất kỳ liên kết nào, dữ liệu vẫn có thể bị đánh cắp mà không hề hay biết.

Giám đốc nghiên cứu mối đe dọa của Radware – Pascal Geenens cảnh báo: “Nếu tài khoản doanh nghiệp bị khai thác, công ty thậm chí sẽ không nhận ra dữ liệu đang bị rò rỉ”.

Dù vậy, Radware cho biết chưa có bằng chứng cho thấy lỗ hổng bị lợi dụng trên thực tế.

Phản hồi trước phát hiện này, OpenAI xác nhận đã vá lỗi và khẳng định “luôn đặt an toàn người dùng lên hàng đầu”. Công ty cũng cho biết họ hoan nghênh các nghiên cứu độc lập nhằm kiểm tra, giám sát và cải thiện bảo mật của công nghệ trí tuệ nhân tạo.

Sự cố này được giới chuyên gia đánh giá là lời cảnh tỉnh trong kỷ nguyên AI, khi chính các công cụ trí tuệ nhân tạo có thể trở thành mục tiêu bị tấn công, thay vì chỉ là công cụ hỗ trợ cho tin tặc.

Leave a Reply

Your email address will not be published. Required fields are marked *