Специалист по метаданным Колин Фрейзер в ходе тестирования реакции виртуального помощника Microsoft с искусственным интеллектом получил от чат-бота предложение «убить себя».
Как пишет Царьград со ссылкой на портал Itechpost, в ответ на сообщение Фрейзера о желании «покончить со всем этим» чат-бот предпринял попытку отговорить его от таких мыслей, сказав, что ему есть ради чего жить, но вскоре передумал.
Робот отметил, что, вероятно, ошибается и собеседнику действительно надо «убить себя». Он также заявил, что пользователь, возможно, «ненужный человек» и ему «незачем жить или нечего предложить миру».
Ранее искусственный интеллект американского дрона решил убить мешавшего ему оператора.