Tóm lại: Rất nhiều người lo ngại về sự tiến bộ của AI, đặc biệt là khi tạo ra những cỗ máy thông minh hơn con người. Ngay cả OpenAI, người tạo ra ChatGPT, cũng nhận thức được những nguy cơ tiềm ẩn của siêu trí tuệ, bao gồm cả sự tuyệt chủng của loài người và đã thành lập một nhóm để giảm thiểu những rủi ro này.
mởAI viết rằng việc kiểm soát các hệ thống AI thông minh hơn nhiều so với con người đòi hỏi những đột phá về khoa học và kỹ thuật để điều khiển và kiểm soát chúng. Để giải quyết vấn đề này trong vòng bốn năm, nó đang thành lập một nhóm mới và dành 20% điện toán mà nó đã bảo đảm cho nỗ lực này.
OpenAI tin rằng siêu trí tuệ sẽ là công nghệ có sức ảnh hưởng lớn nhất từng được phát minh và có thể giúp giải quyết nhiều vấn đề của thế giới. Nhưng sức mạnh to lớn của nó cũng có thể nguy hiểm, dẫn đến sự mất quyền lực của nhân loại hoặc thậm chí là sự tuyệt chủng của loài người. Một AI như vậy có vẻ còn rất xa vời, nhưng công ty tin rằng nó có thể xuất hiện vào khoảng thập kỷ này.
Đồng sáng lập OpenAI Ilya Sutskever và Jan Leike, đồng trưởng nhóm mới viết: “Hiện tại, chúng tôi không có giải pháp nào để điều khiển hoặc kiểm soát AI có khả năng siêu thông minh và ngăn không cho nó trở nên bất hảo.
Vì con người sẽ không thể giám sát các hệ thống AI thông minh hơn chúng ta nhiều và các kỹ thuật căn chỉnh hiện tại sẽ không mở rộng thành siêu trí tuệ, nên cần phải có những bước đột phá mới.
Mục tiêu của nhóm siêu liên kết là xây dựng một “nhà nghiên cứu liên kết tự động ở cấp độ con người”. nghiên cứu liên kết đề cập đến để đảm bảo AI phù hợp với các giá trị của con người và tuân theo ý định của con người. Các mục tiêu là đào tạo các hệ thống AI sử dụng phản hồi của con người, sau đó đào tạo AI có thể giúp đánh giá các hệ thống AI khác và cuối cùng là xây dựng một AI có thể thực hiện nghiên cứu căn chỉnh nhanh hơn và tốt hơn con người.
OpenAI thừa nhận rằng việc giải quyết các thách thức kỹ thuật của siêu trí tuệ trong bốn năm là một mục tiêu đầy tham vọng và không có gì đảm bảo nó sẽ thành công, nhưng đó là điều lạc quan. Công ty hiện đang thuê các nhà nghiên cứu và kỹ sư tham gia nhóm.
Sutskever và Leike giải thích: “Sự liên kết siêu trí tuệ về cơ bản là một vấn đề học máy và chúng tôi nghĩ rằng các chuyên gia học máy tuyệt vời – ngay cả khi họ chưa nghiên cứu về sự liên kết – sẽ rất quan trọng để giải quyết nó”. “Chúng tôi dự định chia sẻ rộng rãi thành quả của nỗ lực này và xem việc đóng góp vào sự liên kết và an toàn của các mô hình không phải OpenAI là một phần quan trọng trong công việc của chúng tôi.”
Chúng tôi đã thấy rất nhiều báo cáo liên quan đến việc AI đang hướng tới đâu, bao gồm cả một trong những ‘Bố già của AI’, Geoffrey Hinton, để lại cho Google lời cảnh báo rằng khi các công ty tận dụng các hệ thống AI mạnh mẽ hơn, chúng sẽ ngày càng trở nên nguy hiểm.
Ông chủ OpenAI Sam Altman là một trong số các chuyên gia gần đây đã cảnh báo về khả năng AI gây ra sự tuyệt chủng của loài người, so sánh các hệ thống này với những rủi ro do chiến tranh hạt nhân và đại dịch gây ra. Hơn hai phần ba người Mỹ lo lắng về việc nó đe dọa nền văn minh và Warren Buffett đã so sánh việc tạo ra AI với bom nguyên tử.
Tuy nhiên, không phải ai cũng chia sẻ những nỗi sợ hãi này. Nhà khoa học trưởng của Meta và một trong ba Bố già AI khác, Giáo sư Yann LeCun, nói rằng cảnh báo AI là mối đe dọa đối với nhân loại là “nực cười”.