Thông tin sai lệch từ các chatbot AI gây ảo giác, một nhà nghiên cứu đã vô tình khiến một chatbot khác bị ảo giác…
Trong khi cố gắng trích dẫn các ví dụ về thông tin sai lệch từ các chatbot AI gây ảo giác, một nhà nghiên cứu đã vô tình khiến một chatbot khác bị ảo giác bằng cách ảnh hưởng đến kết quả tìm kiếm được xếp hạng. Vụ việc cho thấy sự cần thiết phải có các biện pháp bảo vệ hơn nữa khi các công cụ tìm kiếm được tăng cường AI ngày càng phát triển.
Nhà nghiên cứu khoa học thông tin Daniel S. Griffin đã đăng hai ví dụ về thông tin sai lệch từ chatbot trên blog của anh ấy vào đầu năm nay liên quan đến nhà khoa học máy tính có ảnh hưởng Claude E. Shannon. Griffin cũng đưa ra tuyên bố từ chối trách nhiệm lưu ý rằng thông tin của chatbot là không đúng sự thật để ngăn cản những người quét máy lập chỉ mục cho nó, nhưng như vậy là chưa đủ.
Griffin cuối cùng đã phát hiện ra rằng nhiều chatbot, bao gồm Bing của Microsoft và Bard của Google, đã tham chiếu những ảo giác mà anh ấy đăng như thể chúng là sự thật, xếp chúng ở đầu kết quả tìm kiếm. Khi được hỏi những câu hỏi cụ thể về Shannon, các bot đã sử dụng cảnh báo của Griffin làm cơ sở cho một câu chuyện nhất quán nhưng sai lầm, gán một bài báo cho Shannon mà anh ta chưa bao giờ viết. Đáng lo ngại hơn, kết quả của Bing và Bard không đưa ra dấu hiệu nào cho thấy nguồn của họ có nguồn gốc từ LLM.
Ối. Có vẻ như các liên kết đến kết quả Chat cho bài kiểm tra ảo giác Claude Shannon của tôi đã bị đầu độc @bing. pic.twitter.com/42lZpV12PY
– Daniel Griffin (@danielsgriffin) Ngày 29 tháng 9 năm 2023
Tình huống tương tự như trường hợp mọi người diễn giải hoặc trích dẫn nguồn ngoài ngữ cảnh, dẫn đến nghiên cứu sai lệch. Trường hợp của Griffin chứng minh rằng các mô hình AI tổng quát có khả năng tự động hóa lỗi đó ở quy mô đáng sợ.
Microsoft đã sửa lỗi trong Bing và giả thuyết rằng vấn đề có nhiều khả năng xảy ra hơn khi xử lý các chủ đề có tương đối ít tài liệu do con người viết trực tuyến. Một lý do khác khiến tiền lệ trở nên nguy hiểm là vì nó trình bày một kế hoạch chi tiết về mặt lý thuyết để những kẻ xấu cố tình sử dụng LLM để truyền bá thông tin sai lệch bằng cách tác động đến kết quả tìm kiếm. Tin tặc được biết là đã phát tán phần mềm độc hại bằng cách điều chỉnh các trang web lừa đảo để đạt được thứ hạng hàng đầu trong kết quả tìm kiếm.
Lỗ hổng này lặp lại cảnh báo từ tháng 6 cho thấy rằng khi có nhiều nội dung do LLM tạo ra tràn ngập trên web, nội dung đó sẽ được sử dụng để đào tạo các LLM trong tương lai. Vòng phản hồi thu được có thể làm xói mòn đáng kể chất lượng và độ tin cậy của các mô hình AI trong một hiện tượng gọi là “Sự sụp đổ mô hình”.
Các công ty làm việc với AI nên đảm bảo việc đào tạo liên tục ưu tiên nội dung do con người tạo ra. Việc lưu giữ những thông tin và tài liệu ít được biết đến hơn do các nhóm thiểu số tạo ra có thể giúp giải quyết vấn đề.