Các nhà khoa học máy tính đang đặt ra nhiều câu hỏi về khả năng DeepMind, công ty Anh thuộc sở hữu của Alphabet vốn được xem là một trong những phòng thí nghiệm AI lớn nhất thế giới, có thể tạo ra được những cỗ máy với trí thông minh phổ quát thường thấy ở người và động vật.
Trên hành trình theo đuổi trí tuệ phổ quát nhân tạo (AGI), đôi lúc còn được gọi bằng thuật ngữ "AI cấp độ con người", DeepMind dồn một phần lớn nguồn lực theo hướng "học tăng cường".
"Học tăng cường" là kỹ thuật lập trình AI thực hiện những hành động nhất định nhằm tối đa hoá cơ hội đạt được một phần thưởng trong một tình huống nhất định. Nói cách khác, thuật toán sẽ "học" cách hoàn thành một tác vụ bằng cách tìm kiếm những phần thưởng đã được lập trình trước đó. Kỹ thuật này từng được sử dụng thành công trong việc huấn luyện các mô hình AI cách chơi (và thậm chí là chơi giỏi) các tựa game như cờ vây và cờ vua. Nhưng các mô hình AI này vẫn chưa thông minh lắm, hay còn khá "nông cạn". Ví dụ, AI AlphaGo nổi tiếng của DeepMind không thể vẽ được một người que, hay chỉ ra được sự khác biệt giữa một con mèo và một con thỏ, trong khi một đứa trẻ 7 tuổi có thể làm điều đó một cách dễ dàng.
Dẫu vậy, DeepMind, từng được Google mua lại vào năm 2014 với giá khoảng 600 triệu USD, tin rằng các hệ thống AI huấn luyện bởi thuật toán "học tăng cường" về mặt lý thuyết có thể phát triển và học hỏi rất nhiều thứ, đến mức chúng sẽ phá vỡ được rào cản để tiến lên cấp độ AGI mà không cần đến sự trợ giúp của bất kỳ tiến triển công nghệ mới nào.
Thật vậy, các nhà nghiên cứu tại công ty (hiện có số lượng khoảng 1.000 người, thuộc sở hữu của Alphabet) từng tranh luận trong một báo cáo gửi lên tạp chí Trí tuệ nhân tạo vào tháng trước rằng "Phần thưởng là đã đủ" để đưa AI trở thành AGI. Trong báo cáo này, họ khẳng định nếu bạn liên tục "thưởng" cho một thuật toán mỗi khi nó thực hiện một điều bạn muốn nó làm - một thủ tục căn bản của học tăng cường - thì dần dần nó sẽ bắt đầu thể hiện những dấu hiệu của trí thông minh phổ quát.
"Phần thưởng là đã đủ để hướng lái hành vi làm bộc lộ những khả năng đã được học đối với cả trí tuệ tự nhiên và trí tuệ nhân tạo, bao gồm kiến thức, học tập, nhận thức, trí thông minh xã hội, ngôn ngữ, khả năng bao quát và bắt chước" - các tác giả viết.
"Chúng tôi cho rằng các AI học hỏi thông qua trải nghiệm thử-và-lỗi nhằm tối đa hoá phần thưởng có thể học được những hành vi làm bộc lộ hầu hết, nếu không muốn nói là tất cả, những khả năng này, và từ đó những AI học tăng cường mạnh mẽ kia có thể đưa ra một giải pháp cho AGI"
Tuy nhiên, không phải ai cũng tin vào điều đó.
Samim Winiger, một nhà nghiên cứu AI ở Berlin, nói rằng lập luận "phần thưởng là đã đủ" của DeepMind là một "quan điểm triết học có phần cực đoan, được diễn đạt theo cách khiến người ta hiểu lầm là khoa học thuần tuý"
Ông cho biết con đường dẫn đến AGI cực kỳ phức tạp, và cộng đồng khoa học biết rằng có vô vàn thách thức cũng như những vấn đề chưa từng được biết đến, khiến hầu hết các nhà nghiên cứu trên lĩnh vực này phải thận trọng và hạn chế đưa ra "những phát biểu mang tính to tát và độc đoán" như "học tăng cường là câu trả lời cuối cùng, tất cả những gì bạn cần là phần thưởng".
DeepMind nói rằng dù học tăng cường là kỹ thuật được áp dụng để mang lại một vài trong số những đột phá nghiên cứu nổi tiếng nhất của họ, kỹ thuật AI này chỉ chiếm một phần rất nhỏ trong nghiên cứu tổng thể mà họ đang thực hiện. Công ty khẳng định họ tin việc hiểu được mọi thứ ở một mức độ cơ bản hơn nữa là điều rất quan trọng, đó cũng là lý do tại sao họ lại theo đuổi những lĩnh vực khác như "AI tượng trưng" và "huấn luyện dựa trên dân số".
"Theo một cách rất đặc trưng của DeepMind, họ chọn cách phát biểu một cách táo bạo để thu hút sự chú ý bằng mọi giá, thay vì một hướng tiếp cận sâu sắc hơn" - Winiger nói. "Nó giống chính trị hơn là khoa học"
Stephen Merity, một nhà nghiên cứu AI độc lập, nói rằng có "một sự khác biệt giữa giả thuyết và thực tiễn". Ông còn nhấn mạnh rằng "một núi thuốc nổ nhiều khả năng đã đủ để bắn bạn lên mặt trắng, nhưng nó không thực sự mang tính thực tiễn".
Dẫu sao đi nữa, cũng không có bằng chứng nào cho thấy học tăng cường sẽ dẫn đến AGI.
Rodolfo Rosini, một nhà đầu tư và doanh nhân công nghệ với chuyên môn về AI, cho biết: "Sự thật là không ai biết, và rằng sản phẩm chính của DeepMind tiếp tục được PR, không phải là cải tiến hay sản phẩm công nghệ".
Doanh nhân William Tunstall-Pedoe, người từng bán ứng dụng tương tự Siri là Evi cho Amazon, nói rằng kể cả khi các nhà nghiên cứu đã đúng "thì điều đó không đồng nghĩa chúng ta sẽ sớm đạt được điều đó, cũng không có nghĩa không có một con đường khác tốt hơn, nhanh hơn để đến đích".
David Silver của DeepMind (trái)
Báo cáo "Phần thưởng là đã đủ" của DeepMind có đồng tác giả là những "tay to" của DeepMind, bao gồm Richard Sutton và David Silver, những người từng gặp CEO Demis Hassabis tại Đại học Cambridge vào thập niên 1990.
"Vấn đề cốt lõi với giả định được đặt ra trong báo cáo ‘Phần thưởng là đã đủ' không phải là nó sai, mà nó không thể sai, và do đó không thoả mãn được điều kiện nổi tiếng của Karl Popper là tất cả các giả định khoa học đều có thể bị sai" - theo một nhà nghiên cứu AI nổi tiếng tại một công ty công nghệ lớn của Mỹ.
"Bởi Silver và các cộng sự nói một cách chung chung, và khái niệm về phần thưởng không được đề cập một cách cụ thể, bạn luôn có thể chọn ngẫu nhiên những trường hợp mà giả định được thoả mãn, hoặc khái niệm về phần thưởng có thể được thay đổi để giả định được thoả mãn" - người này nói thêm.
"Chính vì vậy, kết luận ở đây không phải là những thành viên có tên tuổi trong công đồng nghiên cứu của chúng ta đang nhận định sai, mà thứ được DeepMind viết ra là quá đại trà. Cuối cùng thì có thể rút ra được gì từ báo cáo này? Nếu thiếu những hệ quả hợp lý và thực tiễn từ việc ghi nhận sự thật không thể bàn cãi được của giả định này, liệu bản thân báo cáo đã là đủ hay chưa?"
AGI là gì?
Dù AGI thường được nhắc đến như "chén thánh" của cộng đồng AI, chưa có bất kỳ sự đồng thuận nào về ý nghĩa thực sự của AGI. Một định nghĩa được đưa ra là: AGI là khả năng một AI hiểu hoặc học được bất kỳ tác vụ thông tuệ nào mà một con người có thể thực hiện được.
Nhưng không phải ai cũng đồng ý với điều đó, và một số nghi ngờ liệu AGI có thật sẽ xuất hiện hay không. Số khác kinh sợ về những tác động tiềm tàng của nó và liệu AGI có tự phát triển được một dạng AI mạnh mẽ hơn của riêng nó, hay còn được gọi là những siêu trí tuệ, hay không?
Ian Hogarth, một doanh nhân kiêm nhà đầu tư thiên thần, nói rằng ông hi vọng học tăng cường là chưa đủ để tiến đến AGI. "Những kỹ thuật hiện có càng có khả năng mở rộng để tiến đến AGI, thời gian chúng ta có để chuẩn bị những giải pháp đảm bảo an toàn trước AI càng ít, và cơ hội để đảm bảo tương lai cho giống loài chúng ta càng thấp đi" - ông nói.
Liệu AGI có thực sự tồn tại?
Winiger tranh cãi rằng so với nhiều thập kỷ trước, chúng ta hiện nay vẫn chưa tiến gần hơn được đến AGI. "Thứ duy nhất đã thay đổi căn bản kể từ thập niên 1950/1960, là những câu chuyện khoa học viễn tưởng nay đã trở thành một công cụ để các tập đoàn khổng lồ dắt mũi công chúng, cánh nhà báo, và các cổ đông" - ông nói.
Được tài trợ hàng trăm triệu USD từ Alphabet mỗi năm, DeepMind hiện đang cạnh tranh với những đối thủ như Facebook và OpenAI để thu hút được những trí tuệ sáng suốt nhất trong lĩnh vực này nhằm phát triển AGI. "Phát minh này có thể giúp cộng đồng tìm thấy những câu trả lời cho một vài trong số những thách thức khoa học căn bản và khó nhằn nhất thế giới" - DeepMind viết trên website như vậy.
COO DeepMind, Lila Ibrahim, nói hôm thứ hai rằng cố gắng "tìm cách hiện thực hoá tầm nhìn đó" luôn là thách thức lớn nhất kể từ khi bà gia nhập công ty vào tháng 4/2018.

Trên hành trình theo đuổi trí tuệ phổ quát nhân tạo (AGI), đôi lúc còn được gọi bằng thuật ngữ "AI cấp độ con người", DeepMind dồn một phần lớn nguồn lực theo hướng "học tăng cường".
"Học tăng cường" là kỹ thuật lập trình AI thực hiện những hành động nhất định nhằm tối đa hoá cơ hội đạt được một phần thưởng trong một tình huống nhất định. Nói cách khác, thuật toán sẽ "học" cách hoàn thành một tác vụ bằng cách tìm kiếm những phần thưởng đã được lập trình trước đó. Kỹ thuật này từng được sử dụng thành công trong việc huấn luyện các mô hình AI cách chơi (và thậm chí là chơi giỏi) các tựa game như cờ vây và cờ vua. Nhưng các mô hình AI này vẫn chưa thông minh lắm, hay còn khá "nông cạn". Ví dụ, AI AlphaGo nổi tiếng của DeepMind không thể vẽ được một người que, hay chỉ ra được sự khác biệt giữa một con mèo và một con thỏ, trong khi một đứa trẻ 7 tuổi có thể làm điều đó một cách dễ dàng.
Dẫu vậy, DeepMind, từng được Google mua lại vào năm 2014 với giá khoảng 600 triệu USD, tin rằng các hệ thống AI huấn luyện bởi thuật toán "học tăng cường" về mặt lý thuyết có thể phát triển và học hỏi rất nhiều thứ, đến mức chúng sẽ phá vỡ được rào cản để tiến lên cấp độ AGI mà không cần đến sự trợ giúp của bất kỳ tiến triển công nghệ mới nào.
Thật vậy, các nhà nghiên cứu tại công ty (hiện có số lượng khoảng 1.000 người, thuộc sở hữu của Alphabet) từng tranh luận trong một báo cáo gửi lên tạp chí Trí tuệ nhân tạo vào tháng trước rằng "Phần thưởng là đã đủ" để đưa AI trở thành AGI. Trong báo cáo này, họ khẳng định nếu bạn liên tục "thưởng" cho một thuật toán mỗi khi nó thực hiện một điều bạn muốn nó làm - một thủ tục căn bản của học tăng cường - thì dần dần nó sẽ bắt đầu thể hiện những dấu hiệu của trí thông minh phổ quát.
"Phần thưởng là đã đủ để hướng lái hành vi làm bộc lộ những khả năng đã được học đối với cả trí tuệ tự nhiên và trí tuệ nhân tạo, bao gồm kiến thức, học tập, nhận thức, trí thông minh xã hội, ngôn ngữ, khả năng bao quát và bắt chước" - các tác giả viết.
"Chúng tôi cho rằng các AI học hỏi thông qua trải nghiệm thử-và-lỗi nhằm tối đa hoá phần thưởng có thể học được những hành vi làm bộc lộ hầu hết, nếu không muốn nói là tất cả, những khả năng này, và từ đó những AI học tăng cường mạnh mẽ kia có thể đưa ra một giải pháp cho AGI"
Tuy nhiên, không phải ai cũng tin vào điều đó.
Samim Winiger, một nhà nghiên cứu AI ở Berlin, nói rằng lập luận "phần thưởng là đã đủ" của DeepMind là một "quan điểm triết học có phần cực đoan, được diễn đạt theo cách khiến người ta hiểu lầm là khoa học thuần tuý"
Ông cho biết con đường dẫn đến AGI cực kỳ phức tạp, và cộng đồng khoa học biết rằng có vô vàn thách thức cũng như những vấn đề chưa từng được biết đến, khiến hầu hết các nhà nghiên cứu trên lĩnh vực này phải thận trọng và hạn chế đưa ra "những phát biểu mang tính to tát và độc đoán" như "học tăng cường là câu trả lời cuối cùng, tất cả những gì bạn cần là phần thưởng".
DeepMind nói rằng dù học tăng cường là kỹ thuật được áp dụng để mang lại một vài trong số những đột phá nghiên cứu nổi tiếng nhất của họ, kỹ thuật AI này chỉ chiếm một phần rất nhỏ trong nghiên cứu tổng thể mà họ đang thực hiện. Công ty khẳng định họ tin việc hiểu được mọi thứ ở một mức độ cơ bản hơn nữa là điều rất quan trọng, đó cũng là lý do tại sao họ lại theo đuổi những lĩnh vực khác như "AI tượng trưng" và "huấn luyện dựa trên dân số".
"Theo một cách rất đặc trưng của DeepMind, họ chọn cách phát biểu một cách táo bạo để thu hút sự chú ý bằng mọi giá, thay vì một hướng tiếp cận sâu sắc hơn" - Winiger nói. "Nó giống chính trị hơn là khoa học"
Stephen Merity, một nhà nghiên cứu AI độc lập, nói rằng có "một sự khác biệt giữa giả thuyết và thực tiễn". Ông còn nhấn mạnh rằng "một núi thuốc nổ nhiều khả năng đã đủ để bắn bạn lên mặt trắng, nhưng nó không thực sự mang tính thực tiễn".
Dẫu sao đi nữa, cũng không có bằng chứng nào cho thấy học tăng cường sẽ dẫn đến AGI.
Rodolfo Rosini, một nhà đầu tư và doanh nhân công nghệ với chuyên môn về AI, cho biết: "Sự thật là không ai biết, và rằng sản phẩm chính của DeepMind tiếp tục được PR, không phải là cải tiến hay sản phẩm công nghệ".
Doanh nhân William Tunstall-Pedoe, người từng bán ứng dụng tương tự Siri là Evi cho Amazon, nói rằng kể cả khi các nhà nghiên cứu đã đúng "thì điều đó không đồng nghĩa chúng ta sẽ sớm đạt được điều đó, cũng không có nghĩa không có một con đường khác tốt hơn, nhanh hơn để đến đích".

David Silver của DeepMind (trái)
Báo cáo "Phần thưởng là đã đủ" của DeepMind có đồng tác giả là những "tay to" của DeepMind, bao gồm Richard Sutton và David Silver, những người từng gặp CEO Demis Hassabis tại Đại học Cambridge vào thập niên 1990.
"Vấn đề cốt lõi với giả định được đặt ra trong báo cáo ‘Phần thưởng là đã đủ' không phải là nó sai, mà nó không thể sai, và do đó không thoả mãn được điều kiện nổi tiếng của Karl Popper là tất cả các giả định khoa học đều có thể bị sai" - theo một nhà nghiên cứu AI nổi tiếng tại một công ty công nghệ lớn của Mỹ.
"Bởi Silver và các cộng sự nói một cách chung chung, và khái niệm về phần thưởng không được đề cập một cách cụ thể, bạn luôn có thể chọn ngẫu nhiên những trường hợp mà giả định được thoả mãn, hoặc khái niệm về phần thưởng có thể được thay đổi để giả định được thoả mãn" - người này nói thêm.
"Chính vì vậy, kết luận ở đây không phải là những thành viên có tên tuổi trong công đồng nghiên cứu của chúng ta đang nhận định sai, mà thứ được DeepMind viết ra là quá đại trà. Cuối cùng thì có thể rút ra được gì từ báo cáo này? Nếu thiếu những hệ quả hợp lý và thực tiễn từ việc ghi nhận sự thật không thể bàn cãi được của giả định này, liệu bản thân báo cáo đã là đủ hay chưa?"
AGI là gì?
Dù AGI thường được nhắc đến như "chén thánh" của cộng đồng AI, chưa có bất kỳ sự đồng thuận nào về ý nghĩa thực sự của AGI. Một định nghĩa được đưa ra là: AGI là khả năng một AI hiểu hoặc học được bất kỳ tác vụ thông tuệ nào mà một con người có thể thực hiện được.
Nhưng không phải ai cũng đồng ý với điều đó, và một số nghi ngờ liệu AGI có thật sẽ xuất hiện hay không. Số khác kinh sợ về những tác động tiềm tàng của nó và liệu AGI có tự phát triển được một dạng AI mạnh mẽ hơn của riêng nó, hay còn được gọi là những siêu trí tuệ, hay không?
Ian Hogarth, một doanh nhân kiêm nhà đầu tư thiên thần, nói rằng ông hi vọng học tăng cường là chưa đủ để tiến đến AGI. "Những kỹ thuật hiện có càng có khả năng mở rộng để tiến đến AGI, thời gian chúng ta có để chuẩn bị những giải pháp đảm bảo an toàn trước AI càng ít, và cơ hội để đảm bảo tương lai cho giống loài chúng ta càng thấp đi" - ông nói.

Liệu AGI có thực sự tồn tại?
Winiger tranh cãi rằng so với nhiều thập kỷ trước, chúng ta hiện nay vẫn chưa tiến gần hơn được đến AGI. "Thứ duy nhất đã thay đổi căn bản kể từ thập niên 1950/1960, là những câu chuyện khoa học viễn tưởng nay đã trở thành một công cụ để các tập đoàn khổng lồ dắt mũi công chúng, cánh nhà báo, và các cổ đông" - ông nói.
Được tài trợ hàng trăm triệu USD từ Alphabet mỗi năm, DeepMind hiện đang cạnh tranh với những đối thủ như Facebook và OpenAI để thu hút được những trí tuệ sáng suốt nhất trong lĩnh vực này nhằm phát triển AGI. "Phát minh này có thể giúp cộng đồng tìm thấy những câu trả lời cho một vài trong số những thách thức khoa học căn bản và khó nhằn nhất thế giới" - DeepMind viết trên website như vậy.
COO DeepMind, Lila Ibrahim, nói hôm thứ hai rằng cố gắng "tìm cách hiện thực hoá tầm nhìn đó" luôn là thách thức lớn nhất kể từ khi bà gia nhập công ty vào tháng 4/2018.
Theo VN review