Có trách nhiệm 'phong ấn' siêu trí tuệ nhân tạo để bảo vệ con người, 2 nhân sự chủ chốt của OpenAI bất ngờ từ bỏ cuộc chơi

SkylerNew

Chuyên viên tin tức
Thành viên BQT
Nhà nghiên cứu máy học Jan Leike và nhà khoa học Ilya Sutskever vừa từ chức khỏi OpenAI.

Sự ra đi đột ngột của Jan Leike, một lãnh đạo cấp cao tại OpenAI, đã gây xôn xao cộng đồng AI. Thông báo ngắn gọn “Tôi đã từ chức” trên X của Leike khiến nhiều người bất ngờ bởi vai trò quan trọng của ông trong dự án kiểm soát siêu trí tuệ AI tại OpenAI. Trước đó không lâu, Ilya Sutskever, nhà khoa học trưởng kiêm đồng sáng lập OpenAI, cũng tuyên bố rời công ty.

Leike và Sutskever từng dẫn dắt nhóm "superalignment" - một dự án đầy tham vọng nhằm đảm bảo rằng AI siêu việt, với trí thông minh vượt trội con người, sẽ luôn hành động theo ý muốn của con người. OpenAI đã đầu tư 20% nguồn lực tính toán của mình cho dự án này với mục tiêu tìm ra giải pháp kiểm soát AI trong vòng bốn năm.

66445fe4b4abc992e8c99aad-1715825565845117905710.png

Tuy nhiên, OpenAI thừa nhận rằng hiện tại họ vẫn chưa tìm ra cách thức hiệu quả để kiểm soát AI siêu việt. Trong một bài đăng hồi tháng 7/2023, OpenAI cho biết: "Các kỹ thuật căn chỉnh AI hiện tại, chẳng hạn như học tăng cường từ phản hồi của con người, phụ thuộc vào khả năng giám sát AI của con người. Nhưng con người sẽ không thể giám sát một cách đáng tin cậy các hệ thống AI thông minh hơn mình, và do đó các kỹ thuật căn chỉnh hiện tại của chúng tôi sẽ không mở rộng quy mô đến siêu trí tuệ. Chúng ta cần những đột phá khoa học và kỹ thuật mới."

Trước khi gia nhập OpenAI, Leike từng làm việc tại DeepMind của Google. Ông luôn ấp ủ tham vọng bảo vệ con người khỏi những rủi ro tiềm ẩn từ AI siêu việt. Trong một tập podcast “80.000 giờ” vào tháng 8/2023, Leike chia sẻ: "Giống như chúng ta có một vấn đề nan giải mà chúng ta đã nói đến trong nhiều năm, và bây giờ chúng ta có cơ hội thực sự để giải quyết nó."

Trên Substack cá nhân, Leike đã đưa ra những phân tích về vấn đề căn chỉnh AI. Ông cho rằng: "Có lẽ giải pháp cho vấn đề tối ưu, tinh chỉnh nằm trong khả năng giải quyết của con người. Nhưng cũng có thể là không". Leike đề xuất một giải pháp khả thi hơn là: "Xây dựng một hệ thống AI được tinh chỉnh đủ tốt để tăng tốc nghiên cứu căn chỉnh, từ đó có thể phát triển các hệ thống AI có khả năng cao hơn."

Sự ra đi của Sutskever và Leike đặt ra nhiều câu hỏi về tương lai của dự án kiểm soát siêu trí tuệ AI. Liệu OpenAI có thể tìm được người thay thế xứng đáng cho hai chuyên gia hàng đầu này hay không? Và quan trọng hơn, liệu mục tiêu chế ngự AI siêu việt có phải là nhiệm vụ bất khả thi?

Theo Genk
 
Bên trên