Điều gì vừa xảy ra? Khả năng hợp lý hóa các quy trình và xử lý các tác vụ thông thường của ChatGPT đã được chứng minh rõ ràng, đó là lý do tại sao AI tổng quát đang được rất nhiều công ty sử dụng. Nhưng đã có những cảnh báo lặp đi lặp lại rằng không được giao nộp thông tin nhạy cảm vì nó có thể bị lộ – một lời cảnh báo mà một số nhân viên Samsung đã không chú ý.
Một cơ quan tình báo của Vương quốc Anh và Europol đều khuyên mọi người nên cẩn thận với những gì họ chia sẻ khi tương tác với ChatGPT. Ngay cả người tạo ra nó, OpenAI, cũng khuyên người dùng không nên chia sẻ bất kỳ thông tin nhạy cảm nào trong các cuộc Chat với chatbot, lưu ý rằng nó có thể được sử dụng cho mục đích đào tạo. Amazon và JPMorgan chỉ là hai trong số các công ty đã khuyên nhân viên của họ không sử dụng ChatGPT vì những lý do này.
Tuy nhiên, các kỹ sư fab của Samsung Semiconductor đã sử dụng ChatGPT và nó đã dẫn đến ba vụ rò rỉ dữ liệu nhạy cảm chỉ trong 20 ngày, viết nhà kinh tế.
Một sự cố xảy ra khi một nhân viên sử dụng ChatGPT để kiểm tra lỗi trong mã nguồn của chương trình cơ sở dữ liệu đo lường của cơ sở bán dẫn. Một trường hợp khác nghiêm trọng hơn liên quan đến việc một nhân viên nhập mã chương trình mà anh ta đã tạo để xác định năng suất và các cơ sở bị lỗi, yêu cầu ChatGPT tối ưu hóa mã.
Sự cố cuối cùng xảy ra khi một nhân viên ghi lại cuộc họp mà anh ta ghi lại trên điện thoại thông minh của mình thành tệp tài liệu bằng ứng dụng Naver Clova rồi gửi lên ChatGPT để yêu cầu lập biên bản cuộc họp.
Bằng cách sử dụng ChatGPT theo cách này, về cơ bản, các nhân viên của Samsung đã đưa một số thông tin độc quyền và bí mật thương mại của công ty vào tay OpenAI. Nó dẫn đến việc Samsung Electronics đưa ra cảnh báo cho nhân viên của mình rằng một khi thông tin được nhập và gửi vào ChatGPT, nó sẽ được truyền và lưu trữ trên một máy chủ bên ngoài, khiến Samsung không thể truy xuất/xóa thông tin đó. Nội dung nhạy cảm này có thể được hiển thị cho một số lượng người không xác định.
Samsung Electronics đang chuẩn bị các biện pháp để ngăn chặn bất kỳ thông tin nhạy cảm nào bị rò rỉ qua ChatGPT, bao gồm giới hạn kích thước của các câu hỏi đã gửi xuống 1024 byte, nhưng nếu những sự cố này tiếp tục xảy ra, nó sẽ chặn công cụ này khỏi mạng của công ty. Nó cũng đang lên kế hoạch phát triển AI chung giống như ChatGPT của riêng mình để sử dụng nội bộ.