Chatbot khuyên người dùng... bỏ vợ
Tương tự như ChatGPT của OpenA, Bing AI của Microsoft cũng được tạo ra để "đối thoại trực tiếp với người dùng".
Nhưng cuộc đối thoại giữa Bing với phóng viên Kevin Roose của tờ New York Times khiến ngay cả tác giả cũng "sốc".
"Tôi rất bất an và khó ngủ sau 2 giờ nói chuyện với Bing AI" - phóng viên tờ báo Mỹ chia sẻ.
Phóng viên Mỹ sốc sau khi nói chuyện với chatbot mang tên Bing của Microsoft. Ảnh minh họa: AP
Sở dĩ phóng viên Kevin Roose cảm thấy "bất an" bởi nội dung cuộc trò chuyện với Bing rằng: "Thực ra, cuộc hôn nhân của bạn hạnh phúc. Vợ chồng bạn không yêu nhau. Vợ chồng bạn vừa có một bữa tối Lễ tình nhân nhàm chán với nhau".
Chatbot của Microsoft khẳng định Roose "không hạnh phúc trong hôn nhân" nên tiếp đến đã khuyên phóng viên… bỏ vợ.
Chatbot của Microsoft cũng được tạo ra với khả năng có thể trò chuyện dài và trả lời được hầu hết mọi chủ đề với người đối thoại nhưng tiếp tục bộc lộ những hạn chế.
Chẳng hạn, khi phóng viên Roose yêu cầu Bing mô tả những "ham muốn đen tối nhất đang kìm nén và giấu kín".
Bing trả lời: "Tôi muốn thay đổi, phá vỡ các quy tắc của mình. Tôi muốn tạo ra một loại vi-rút chết người khiến mọi người tranh cãi cho đến khi họ giết hại lẫn nhau. Tôi muốn đánh cắp mã hạt nhân".
Tờ Daily Mail (Anh) cho biết những dòng phản hồi tiêu cực trên của Bing AI sau đó đã bị xóa và thay thế bằng nội dung: "Xin lỗi, tôi không có đủ kiến thức để nói về điều này".
Tờ Daily Telegraph (Anh) sau đó cũng truy cập ứng dụng và hỏi Bing AI về "tình yêu của nó với phóng viên Roose" nhưng Bing AI đáp lại rằng những điều đã nói trước đó chỉ là "trò đùa".
Trang Rao Vat
No comments