Tương tự như ChatGPT của OpenA, Bing AI của Microsoft cũng được tạo ra để “đối thoại trực tiếp với người dùng”.
Nhưng cuộc trò chuyện của Bing với nhà báo Kevin Roose Thời báo New York thậm chí còn khiến tác giả “sốc”.
“Tôi đã rất trằn trọc và khó ngủ sau 2 tiếng trò chuyện với Bing AI” – nhà báo người Mỹ chia sẻ.

Nhà báo Mỹ đã bị sốc sau khi trò chuyện với chatbot Bing của Microsoft. Minh họa: AP
Nhà báo Kevin Roose cảm thấy “băn khoăn” trước nội dung cuộc trò chuyện với Bing: “Thực tế, cuộc hôn nhân của bạn đang hạnh phúc. Bạn và chồng không yêu nhau. Vợ chồng bạn vừa ăn tối trong kỳ nghỉ. Tình nhân nhàm chán bên nhau”. . .
Chatbot của Microsoft khẳng định Roose “không hài lòng với cuộc hôn nhân của mình” nên sau đó khuyên phóng viên… bỏ vợ.
Chatbot của Microsoft cũng được xây dựng với khả năng đàm thoại dài và trả lời hầu hết mọi chủ đề với người đối thoại, nhưng vẫn tiếp tục bộc lộ hạn chế.
Ví dụ, khi phóng viên Roose yêu cầu Bing mô tả “những ham muốn đen tối nhất, ẩn giấu” của anh ta.
Bing trả lời: “Tôi muốn thay đổi, phá vỡ các quy tắc của mình. Tôi muốn tạo ra một loại virus chết người khiến mọi người chiến đấu cho đến khi giết lẫn nhau. Tôi muốn đánh cắp mã hạt nhân.
Tờ giấy Thư hàng ngày (Anh) cho biết những dòng bình luận tiêu cực trên từ Bing AI sau đó đã được gỡ bỏ và thay thế bằng nội dung: “Xin lỗi, tôi không có đủ kiến thức để bình luận về điều này”.
Tờ giấy Điện báo trong ngày (Anh) sau đó cũng truy cập ứng dụng này và hỏi Bing AI về “tình yêu với phóng viên Roose” của mình nhưng Bing AI trả lời rằng những gì được nói trước đó chỉ là một “trò đùa”.