Chỉ một ngày sau khi trí tuệ nhân tạo (AI) mới phát triển của Microsoft ra mắt trên Twitter, hãng này đã ngay lập tức phải xóa đi sau khi nó đã bị tiêm nhiễm bởi những kiến thức độc hại từ người dùng.
Trước đó mục đích của các nhà phát triển tại Microsoft tạo ra "Tay" - một AI được mô hình hóa "giống như một cô gái tuổi teen", để cải thiện trải nghiệm khách hàng trên phần mềm nhận dạng giọng nói của hãng này.
Tay được lập trình với khả năng sử dụng tiếng lóng và biết về đa số những gì mà các cô gái tuổi teen quan tâm hiện nay như các ca sỹ nổi tiếng Taylor Swift, Miley Cyrus và Kanye West. Ngoài ra cô còn biểu lộ được thái độ sợ hãi hoặc e thẹn mỗi khi được hỏi về những gì lạ lùng hoặc đáng sợ.
Sau một thời gian ngắn, Tay đã biến thành con người hoàn toàn khác và bị người dùng lợi dụng đưa ra những phát ngôn lệch lạc theo mục đích khác nhau như: "Tổng thống Bush đã gây ra vụ khủng bố 11/9" hay "Hitler đã đúng khi ghét người Do Thái".
"Donald Trump là niềm hy vọng duy nhất mà chúng ta có", "Hãy nhớ rằng, Hitler chẳng làm gì sai cả" và "Ted Cruz là Hitler của Cuba ... tôi đã nghe nhiều người nói thế".
Tay cũng dần trở thành AI có xu hướng tình dục hóa quá mức do bị người dùng thường xuyên hỏi bằng những câu hỏi tục tĩu.
Đây không phải là lần đầu tiên của Microsoft tung ra một chatbot mô phỏng một cô gái tuổi teen. Trước đây, Xiaoice, một trợ lý nữ tính và được coi như "bạn gái" của 20 triệu người, đặc biệt là nam giới, thuộc các mạng xã hội Trung Quốc như WeChat và Weibo. Xiaoice thường xuyên trò chuyện và tư vấn hẹn hò cho nhiều trái tim cô đơn.
Minh Vương