Bản tin được tóm tắt Anh-Việt bởi nền tảng tạo trợ lý AI – KamiMind.
Nguồn: Matt Burgess, “OpenAI’s Custom Chatbots Are Leaking Their Secrets“, wired.com, 29/11/2023.
Từ đầu tháng 11, OpenAI đã cho phép mọi người xây dựng và xuất bản phiên bản tùy chỉnh của ChatGPT, được biết đến là “GPTs”. Tuy nhiên, nghiên cứu mới đây đã chỉ ra rằng rất dễ dàng tiết lộ thông tin nhạy cảm từ các GPT tùy chỉnh, và có thể đe dọa đến sự riêng tư của người dùng.
Các nhà nghiên cứu đã phát hiện và tải xuống các tệp được sử dụng để tùy chỉnh các chatbot trên ChatGPT và có thể truy cập vào thông tin cá nhân hoặc dữ liệu độc quyền. Việc truy cập vào các hướng dẫn cấu hình (instructions) và dữ liệu thông qua prompt injections cũng là một hình thức khai thác phổ biến.
Mặc dù OpenAI đã cung cấp một số biện pháp an toàn, nhưng việc bảo vệ chatbot khỏi prompt injections vẫn được thực hiện liên tục. Các nhà nghiên cứu đề nghị tăng cường nhận thức về nguy cơ tiềm ẩn và làm sạch dữ liệu được tải lên GPTs tùy chỉnh để bảo vệ thông tin cá nhân và dữ liệu nhạy cảm.
Bản tóm tắt tiếng Anh
OpenAI has allowed users to create and publish their own custom versions of ChatGPT, known as “GPTs”. These GPTs have various functionalities, such as providing remote working advice, answering academic questions, and even transforming users into Pixar characters. However, security researchers have discovered that these custom GPTs can be manipulated to leak sensitive information and personal data.
Northwestern University researchers found it surprisingly easy to extract information from over 200 custom GPTs, highlighting the privacy concerns associated with file leakage and prompt extraction. While OpenAI plans to allow developers to monetize their GPTs based on usage, the ease of creating these bots poses risks to privacy and data security.
Users can provide specific instructions and upload documents to enhance the expertise of the chatbot, but this can also include sensitive information. Some instances have already led to unintentional data publication, prompting developers to take down the uploaded data.
Prompt injections, a method similar to jailbreaking, have been used to access instructions and files, potentially compromising APIs and allowing attackers to clone custom GPTs. OpenAI claims to prioritize user privacy and safety, continuously working to strengthen safety measures. However, there is still work to be done to address prompt injection vulnerabilities.
As more people create custom GPTs, awareness of privacy risks and the need for defensive prompts should increase. Cleaning uploaded data and considering the information shared can help mitigate risks. The ongoing battle against prompt injection issues highlights the ever-evolving nature of securing chatbots.