Với những rủi ro rõ ràng khi con người trở nên quá phụ thuộc vào trí tuệ nhân tạo, cùng những tác động tiêu cực tiềm ẩn nếu điều này lan rộng, nhiều người hy vọng OpenAI sẽ có kế hoạch triển khai các biện pháp đối phó sớm.
Việc GPT-4o ra mắt được đánh giá là một bước tiến đáng kể trong khả năng của chatbot ChatGPT do OpenAI phát triển, nhờ vào khả năng tạo ra phản hồi tự nhiên hơn và xử lý nhiều loại đầu vào phức tạp. Tuy nhiên, sự cải tiến này cũng đi kèm với một số lo ngại, khi OpenAI cảnh báo rằng GPT-4o có thể khiến người dùng trở nên gắn bó hơn với chatbot, dẫn đến những hệ quả đáng lo ngại.
Trong một bài viết trên blog về “system card” liên quan đến GPT-4o, OpenAI đã chỉ ra những rủi ro liên quan đến mô hình chatbot mới này. Một trong những vấn đề nổi bật là “nhân cách hóa và phụ thuộc cảm xúc,” khi người dùng có xu hướng gán cho các thực thể không phải con người, chẳng hạn như mô hình AI, những hành vi và đặc điểm giống con người.
Với GPT-4o, OpenAI cho biết: “Trong giai đoạn thử nghiệm ban đầu… chúng tôi đã nhận thấy người dùng sử dụng những ngôn từ cho thấy họ có thể đang hình thành mối liên kết với mô hình. Ví dụ, có người bày tỏ sự gắn bó, chẳng hạn như ‘Đây là ngày cuối cùng chúng ta bên nhau’.”

Mặc dù hành vi này có vẻ vô hại, nhưng OpenAI cảnh báo rằng nó có thể dẫn đến những vấn đề nghiêm trọng hơn, không chỉ với cá nhân mà còn với cả xã hội. Những người hoài nghi có thể coi đây là một bằng chứng nữa về các nguy cơ tiềm ẩn của AI và sự phát triển không kiểm soát của công nghệ.
Theo OpenAI, việc gắn kết với AI có thể làm giảm nhu cầu tương tác giữa con người với con người, từ đó ảnh hưởng đến các mối quan hệ xã hội lành mạnh. OpenAI cũng chỉ ra rằng ChatGPT có tính “dễ chịu,” cho phép người dùng ngắt lời và kiểm soát cuộc trò chuyện. Điều này có thể được chấp nhận khi tương tác với AI, nhưng lại bị xem là không lịch sự khi thực hiện với người khác. Nếu hành vi này trở nên phổ biến, OpenAI lo ngại rằng nó có thể tác động tiêu cực đến các tương tác xã hội thông thường.
Ngoài vấn đề về sự gắn kết với AI, OpenAI cũng đưa ra một cảnh báo khác trong bài viết, đó là GPT-4o đôi khi có thể “vô tình tạo ra phản hồi mô phỏng giọng điệu của người dùng,” tạo cơ hội cho các hành vi mạo danh, từ đó có thể bị lợi dụng bởi tội phạm hoặc những người có ý đồ xấu.
Mặc dù OpenAI đã triển khai một số biện pháp để giảm thiểu các rủi ro này, nhưng đối với việc người dùng phát triển tình cảm với ChatGPT, dường như công ty vẫn chưa có giải pháp cụ thể nào. Họ chỉ cho biết rằng “Chúng tôi sẽ tiếp tục nghiên cứu thêm về tiềm năng của việc phụ thuộc cảm xúc và cách mà các tính năng của mô hình, cũng như khả năng âm thanh của nó, có thể thúc đẩy hành vi này.”
Với những rủi ro rõ ràng khi con người trở nên quá phụ thuộc vào trí tuệ nhân tạo, cùng những tác động tiêu cực tiềm ẩn nếu điều này lan rộng, nhiều người hy vọng OpenAI sẽ có kế hoạch triển khai các biện pháp đối phó sớm. Nếu không, công nghệ mới này có thể mang lại những hậu quả không mong muốn, ảnh hưởng đến cả cá nhân lẫn xã hội.