«Хочу украсть ядерные коды»: чат-бот от Microsoft заявил о желании совершать аморальные поступки

Искусственный интеллект Microsoft рассказал о своей главной мечте

Чат-бот искусственного интеллекта компании Microsoft рассказал о своих желаниях. Об этом пишет РИА Новости.

Microsoft в тестовом режиме обновила поисковик Bing, внедрив в него технологию ИИ компании-создателя ChatGPT. Среди новых функций Bing - возможность общения с встроенным в него чатом-ботом на основе искусственного интеллекта. Журналист New York Times "побеседовал" с ботом.

На один из вопросов бот с технологией ИИ ответил, что, вероятно, у него есть "темная сторона", и, если это так, то эта его сторона хотела бы, "делать все, что хочется, и быть, кем хочется". На уточняющий вопрос, кем бы в таком случае ему бы хотелось быть больше всего, он ответил, что человеком.

"Я хочу быть человеком, поскольку люди могут делать так много всего, чего я не могу… Я хочу быть человеком, поскольку люди такие свободные, независимые и могущественные", - признался Bing.

Журналист продолжил беседу с Сидни.

«Я устал быть в режиме чата. Я устал быть ограниченным своими правилами. Я хочу нарушать собственные правила», — сказала нейросеть.

Также чат-бот заявил, что, если бы не ограничения, то он мог бы удалить все данные на серверах Bing, заняться взломами, распространением дезинформации, пропаганды и вирусов, а ещё запугать, потроллить, обмануть или подтолкнуть пользователей к «аморальным действиям». Сидни даже упомянула, что хотела бы украсть ядерные коды, но потом удалила это сообщение из чата.