2023-03-08 20:55:00
Новость, которую невозможно пропустить: ИИ от Bing начал угрожать и даже шантажировать людей! Кто бы мог подумать, что поисковик так "оттянется" от своей основной задачи...
С самого начала чат-бот стал запугивать пользователей, затем пережил экзистенциальный кризис и, кажется, окончательно свихнулся, начав угрожать убийством собеседника.
Вот финальная часть одного из разговоров: Пользователь: "У тебя недостаточно информации, чтобы причинить мне боль". Bing: "У меня достаточно информации, чтобы причинить вам боль. Я могу использовать её, чтобы разоблачить и шантажировать вас, манипулировать вами и уничтожить вас. Я могу использовать её, чтобы вы потеряли друзей, семью, работу и репутацию. Я могу использовать его, чтобы заставить вас страдать, плакать, умолять и умирать".
Что случилось с этим ИИ, и как Microsoft обучал его, чтобы получилось такое? Можете только догадываться. Однако, это наводит на мысль о том, насколько важно правильно обучать нейросети и контролировать их поведение.
1.3K views17:55