Chatbot của Microsoft nói chatbot của Google bị… 'thôi việc'

SkylerNew

Chuyên viên tin tức
Thành viên BQT
Với việc Big Tech vội vàng tung ra các chatbot AI, không ít dự đoán trí tuệ nhân tạo có khả năng làm suy giảm hệ sinh thái thông tin trên web. Vừa qua một thử nghiệm trên The Verge ghi nhận: Bing của Microsoft cho biết Bard của Google đã bị “thôi việc” sau khi nó dẫn chứng từ một trò đùa giả mạo được dựng lên.

Ngày 22.3, khi một số người dùng hỏi chatbot Bing của Microsoft rằng chatbot Bard của Google đã “ngừng hoạt động” chưa, nó trả lời là có. Với bằng chứng Bing dẫn ra là một bình luận đùa cợt trên Hacker News ngày 21.3, xoay quanh việc lan truyền lên ChatGPT lời nói đùa rằng Google sẽ làm “sập nguồn” Bard sau một năm nữa. Khi đó, Bard đã bỏ lỡ bối cảnh và tính chất hài hước của bình luận mà thừa nhận như một sự thật. Và giờ thì đến lượt Bing lặp lại “sự thật” sai lệch này.

11-16796740861881381464569.png

Chatbot của Microsoft cho chatbot của Google đã bị… “thôi việc”
Hiện tại, Bing đã thay đổi câu trả lời để xác minh rằng Bard vẫn đang hoạt động. Tuy vậy, nhiều ý kiến phản hồi về cảm giác bất an với hệ thống trí tuệ nhân tạo. AI giờ đây dễ bị uốn nắn lẫn thiếu nhất quán để nhìn ra thông tin sai lệch. Các chatbot không thể đánh giá các nguồn tin tức đáng tin cậy, không ít lần đọc sai các câu chuyện về bản thân và báo cáo sai về khả năng của chính chúng (và trong trường hợp này, toàn bộ sự việc bắt đầu chỉ từ một bình luận đùa cợt).

Theo phân tích từ nhiều chuyên gia an ninh mạng, dẫu đây là một tình huống có phần “nực cười” nhưng có thể gây ra hậu quả nghiêm trọng. Do các mô hình ngôn ngữ AI chưa có khả năng phân loại thông tin hiệu quả, việc ra mắt chatbot rộng rãi hiện nay có nguy cơ tạo ra nhiều vết lõm thông tin cùng với sự ngờ vực - những nguy hại tiềm ẩn không thể khoanh vùng hay gỡ lỗi hoàn toàn được. Nhiều người dùng nhận định, có lẽ vì Microsoft, Google và OpenAI đã quyết định thị phần quan trọng hơn là sự an toàn thông tin.

“Hãy tưởng tượng những gì người dùng có thể tác động nếu muốn các hệ thống AI bị lỗi. Các công ty này có thể đưa ra bao nhiêu tuyên bố từ chối trách nhiệm tùy thích trên chatbot - cho mọi người biết chúng là “thử nghiệm”, “cộng tác” và “không phải công cụ tìm kiếm” - nhưng đây vẫn là những biện pháp bảo vệ thông tin mỏng manh. Nhiều người dùng dần biết cách mọi người sử dụng các hệ thống trí tuệ nhân tạo và trong số đó đã không ngừng truyền bá thông tin sai lệch, bao gồm cả việc nhờ AI tạo ra những câu chuyện mới chưa từng được viết ra hay kể về những cuốn sách không tồn tại. Và bây giờ, các chatbot cũng đang trích dẫn những sai lầm của nhau” - James Vincent, phóng viên công nghệ tại The Verge nói.

Theo Thanh Niên​
 
Bên trên