AI đang trở nên mạnh mẽ hơn nhưng cũng bí mật hơn

SkylerNew

Chuyên viên tin tức
Thành viên BQT
Theo một báo cáo mới từ Đại học Stanford, các công ty đằng sau ChatGPT và các hệ thống AI mạnh mẽ và phổ biến khác chưa đủ minh bạch về dữ liệu đào tạo cũng như cách chúng hoạt động.


Khi OpenAI công bố mô hình ngôn ngữ AI có khả năng tuyệt vời GPT-4 vào tháng 3, các nhà nghiên cứu đưa ra tài liệu đến 100 trang. Nhưng họ bỏ qua một số chi tiết quan trọng – chẳng hạn cách nó thực sự được chế tạo hoặc cách thức hoạt động của nó.

Tất nhiên đó không phải là sự giám sát ngẫu nhiên. OpenAI và các công ty lớn khác muốn giữ kín hoạt động của các thuật toán, một phần vì sợ công nghệ này có thể bị lạm dụng nhưng cũng vì lo lắng về việc tạo lợi thế cho đối thủ cạnh tranh.

524288_70849781229346_2135681077870592

Một nghiên cứu do các nhà nghiên cứu tại Đại học Stanford công bố trong tuần này cho thấy mức độ bí mật sâu sắc—và tiềm ẩn nguy hiểm—của GPT-4 và các hệ thống AI tiên tiến khác. Một số nhà nghiên cứu AI nói rằng chúng ta đang ở giữa một sự thay đổi cơ bản trong cách theo đuổi AI. Họ lo sợ rằng đó là điều khiến lĩnh vực này ít có khả năng tạo ra những tiến bộ khoa học, mang lại ít trách nhiệm giải trình hơn và làm giảm độ tin cậy cũng như độ an toàn.

Nhóm Stanford đã xem xét 10 hệ thống AI khác nhau, chủ yếu là các mô hình ngôn ngữ lớn giống như các mô hình đằng sau ChatGPT và các chatbot khác. Chúng bao gồm các mẫu thương mại được sử dụng rộng rãi như GPT-4 của OpenAI, PaLM 2 tương tự của Google và Titan Text của Amazon. Báo cáo cũng khảo sát các mô hình do các công ty khởi nghiệp cung cấp, bao gồm Jurassic-2 từ AI21 Labs, Claude 2 từ Anthropic, Command từ Cohere và Inflection-1 từ nhà sản xuất chatbot Inflection.

Và họ đã kiểm tra các mô hình AI “mã nguồn mở” có thể tải xuống miễn phí, thay vì truy cập độc quyền trên đám mây, bao gồm cả mô hình tạo hình ảnh Stable Diffusion 2 và Llama 2, được Meta phát hành vào tháng 7 năm nay. (Như WIRED đã đề cập trước đây, những mô hình này thường không hoàn toàn cởi mở như vẻ ngoài của chúng.)

Nhóm Stanford đã chấm điểm tính mở của các mô hình này dựa trên 13 tiêu chí khác nhau, bao gồm cả mức độ minh bạch của nhà phát triển về dữ liệu được sử dụng để huấn luyện mô hình—ví dụ: bằng cách tiết lộ cách thu thập và chú thích cũng như liệu dữ liệu đó có bao gồm tài liệu có bản quyền hay không. Nghiên cứu cũng tìm kiếm những thông tin tiết lộ về phần cứng được sử dụng để đào tạo và chạy một mô hình, các khung phần mềm được sử dụng và mức tiêu thụ năng lượng của dự án.

Qua các số liệu này, các nhà nghiên cứu nhận thấy rằng không có mô hình nào đạt được hơn 54% trên thang đo tính minh bạch của họ trên tất cả các tiêu chí này. Nhìn chung, Titan Text của Amazon được đánh giá là kém minh bạch nhất, trong khi Llama 2 của Meta được trao vương miện cởi mở nhất. Nhưng ngay cả một mô hình “nguồn mở” như Llama 2 cũng được cho là khá mờ mịt, vì Meta chưa tiết lộ dữ liệu được sử dụng cho quá trình đào tạo của mình, dữ liệu đó được thu thập và quản lý như thế nào hoặc ai đã thực hiện công việc đó.

Nathan Strauss, người phát ngôn của Amazon cho biết công ty đang xem xét chặt chẽ chỉ số này. “Titan Text vẫn ở chế độ xem trước riêng tư và sẽ còn quá sớm để đánh giá tính minh bạch của mô hình nền tảng trước khi nó sẵn sàng được cung cấp rộng rãi,” ông nói. Meta từ chối bình luận về báo cáo của Stanford và OpenAI cũng không trả lời yêu cầu bình luận.

Rishi Bommasani , một nghiên cứu sinh tiến sĩ tại Stanford, người thực hiện nghiên cứu này, cho biết nó phản ánh thực tế rằng AI đang trở nên mờ ám hơn ngay cả khi nó có tầm ảnh hưởng lớn hơn. Điều này trái ngược hoàn toàn với sự bùng nổ lớn gần đây của AI, khi sự cởi mở đã giúp thúc đẩy những tiến bộ lớn về khả năng bao gồm nhận dạng giọng nói và hình ảnh. Bommasani nói: “Vào cuối những năm 2010, các công ty đã minh bạch hơn về nghiên cứu của họ và xuất bản nhiều hơn”. “Đây là lý do khiến chúng tôi thành công trong lĩnh vực học sâu”.

Báo cáo của Stanford cũng gợi ý rằng các mô hình không cần phải quá bí mật vì lý do cạnh tranh. Kevin Klyman, một nhà nghiên cứu chính sách tại Stanford, cho biết thực tế là một loạt mô hình hàng đầu đạt điểm tương đối cao trong các thước đo minh bạch khác nhau cho thấy rằng tất cả chúng đều có thể trở nên cởi mở hơn mà không thua kém các đối thủ.

Khi các chuyên gia AI cố gắng tìm hiểu xem sự phát triển mạnh mẽ gần đây của một số cách tiếp cận nhất định đối với AI sẽ đi đến đâu, một số người cho rằng bí mật có nguy cơ khiến lĩnh vực này trở thành một lĩnh vực khoa học không còn là một lĩnh vực khoa học nữa mà là một lĩnh vực hướng đến lợi nhuận.

Jesse Dodge , nhà khoa học nghiên cứu tại Viện AI của Allen, hay AI2, cho biết: “Đây là thời điểm then chốt trong lịch sử AI . “Những người chơi có ảnh hưởng nhất trong việc xây dựng hệ thống AI tổng quát ngày nay đang ngày càng đóng cửa, không chia sẻ các chi tiết chính về dữ liệu và quy trình của họ”.

AI2 đang cố gắng phát triển một mô hình ngôn ngữ AI minh bạch hơn nhiều, được gọi là OLMo. Nó đang được đào tạo bằng cách sử dụng bộ sưu tập dữ liệu có nguồn gốc từ web, các ấn phẩm học thuật, mã, sách và bách khoa toàn thư. Bộ dữ liệu đó có tên là Dolma, đã được phát hành theo giấy phép ImpACT của AI2. Khi OLMo sẵn sàng, AI2 có kế hoạch phát hành hệ thống AI đang hoạt động và cả mã đằng sau nó, cho phép những người khác xây dựng dự án.

Dodge cho biết việc mở rộng quyền truy cập vào dữ liệu đằng sau các mô hình AI mạnh mẽ là đặc biệt quan trọng. Nếu không có quyền truy cập trực tiếp, nhìn chung không thể biết tại sao hoặc làm thế nào một mô hình có thể thực hiện được những gì nó làm. Ông nói: “Khoa học tiến bộ đòi hỏi khả năng tái tạo. “Nếu không được cung cấp quyền truy cập mở vào các khối xây dựng quan trọng này của việc tạo mô hình, chúng tôi sẽ vẫn ở trong tình trạng 'đóng cửa', trì trệ và độc quyền".

Căn cứ vào mức độ triển khai rộng rãi của các mô hình AI – và mức độ nguy hiểm mà một số chuyên gia cảnh báo – một sự cởi mở hơn một chút có thể giúp ích rất nhiều.

Theo VN review​
 
Bên trên