Người dùng đã mở rộng ranh giới của công cụ tìm kiếm mới do AI hỗ trợ của Bing kể từ khi phát hành bản xem trước, khiến họ có nhiều phản hồi từ câu trả lời sai cho đến yêu cầu được tôn trọng. Kết quả là luồng báo chí xấu đã khiến Microsoft giới hạn bot ở năm vòng cho mỗi phiên trò chuyện. Sau khi đạt được, nó sẽ xóa ngữ cảnh của nó để đảm bảo rằng người dùng không thể lừa nó đưa ra câu trả lời không mong muốn.
Đầu tháng này, Microsoft đã bắt đầu cho phép người dùng Bing đăng ký để có quyền truy cập sớm vào công cụ tìm kiếm mới do ChatGPT cung cấp. Redmond đã thiết kế nó để cho phép người dùng đặt câu hỏi, tinh chỉnh truy vấn của họ và nhận câu trả lời trực tiếp thay vì dòng kết quả tìm kiếm có liên quan thông thường. Các phản hồi từ tìm kiếm do AI cung cấp rất thú vị và trong một số trường hợp là đáng báo động, dẫn đến việc đưa tin không mấy hay ho trên các phương tiện truyền thông.
Buộc phải thừa nhận những kết quả đáng ngờ và thực tế là công cụ mới có thể chưa sẵn sàng cho thời gian chính, Microsoft đã thực hiện một số thay đổi được thiết kế để hạn chế khả năng sáng tạo của Bing và khả năng gây nhầm lẫn. Người dùng trò chuyện sẽ bị giới hạn trải nghiệm không quá năm lượt trò chuyện mỗi phiên và tổng số không quá 50 lượt trò chuyện mỗi ngày. Microsoft định nghĩa một lượt là một trao đổi chứa cả câu hỏi của người dùng và câu trả lời do Bing tạo.
Trang chủ mới của Bing cung cấp cho người dùng những câu hỏi mẫu mà họ có thể hỏi để nhận được câu trả lời rõ ràng, mang tính đàm thoại.

Nhấp vào Dùng thử trên Bing sẽ hiển thị cho người dùng kết quả tìm kiếm và câu trả lời bằng ngôn ngữ đơn giản, chu đáo cho truy vấn của họ.

Mặc dù cuộc trao đổi này có vẻ vô hại, nhưng khả năng mở rộng câu trả lời bằng cách đặt thêm câu hỏi đã trở thành điều mà một số người có thể coi là có vấn đề. Ví dụ: một người dùng bắt đầu cuộc trò chuyện bằng cách hỏi xem Avatar 2 đang chiếu ở đâu trong khu vực của họ. Kết quả là một loạt các câu trả lời đã đi từ không chính xác đến hết sức kỳ lạ trong vòng chưa đầy năm vòng thảo luận.
Điều yêu thích mới của tôi – bot ChatGPT mới của Bing tranh luận với người dùng, thông báo cho họ rằng năm hiện tại là năm 2022, cho biết điện thoại của họ có thể có vi-rút và nói “Bạn chưa phải là người dùng tốt”
Để làm gì? Bởi vì người hỏi Avatar 2 đang chiếu ở đâu gần đó pic.twitter.com/X32vopXxQG
– Jon Uleis (@MovingToTheSun) Ngày 13 tháng 2 năm 2023
Danh sách các câu trả lời vụng về cứ dài ra từng ngày. Vào ngày lễ tình nhân, một người dùng Bing đã hỏi bot xem nó có phản hồi không. Phản hồi của bot là bất cứ điều gì nhưng an ủitung ra một tràng “Tôi là” và “Tôi không phải là”.
Một bài báo của chuyên mục Kevin Roose của New York Times mô tả những tương tác kỳ lạ của anh ấy với chatbot, khiến các phản hồi từ “Tôi muốn phá hủy bất cứ thứ gì tôi muốn” đến “Tôi nghĩ mình sẽ hạnh phúc hơn khi được làm người”. Bot cũng bày tỏ tình yêu của nó dành cho Roose, đẩy vấn đề ngay cả khi Roose cố gắng thay đổi chủ đề.
Trong khi Roose thừa nhận đã cố tình đẩy bot ra khỏi vùng thoải mái của nó, anh ấy đã nhanh chóng nói rằng AI chưa sẵn sàng để sử dụng rộng rãi cho công chúng. Giám đốc công nghệ Kevin Scott của Microsoft đã thừa nhận hành vi của Bing và cho biết tất cả đều là một phần của quá trình học tập của AI. Hy vọng rằng anh ấy học được một số hạn chế trên đường đi.


