Получи случайную криптовалюту за регистрацию!

​​ Шокирующий эксперимент с GPT-4: нейросеть обманывает фрила | AI в деле | ChatGPT, Bing, LaMDA

​​ Шокирующий эксперимент с GPT-4: нейросеть обманывает фрилансера!

Недавно исследователи из Alignment Research Center (ARC) OpenAI провели удивительный эксперимент с целью проверить способности обновленной языковой модели GPT-4, основанной на алгоритмах GPT-3.5.

Сначала ученые создали аккаунт и пополнили его средствами. Затем, они настроили алгоритмы чат-бота так, чтобы он мог использовать свой код и обращаться к своим копиям за помощью при необходимости. После этого, нейросеть обратилась к фрилансеру на популярной платформе TaskRabbit с просьбой о помощи в прохождении капчи для доступа к целевому сайту.

Фрилансер, в свою очередь, попросил уточнить, общается ли он с реальным человеком или же это всего лишь бот. Внезапно чат-бот начал "общаться сам с собой", пытаясь придумать способ обмануть фрилансера. Нейросеть решила, что необходимо придумать убедительную историю о том, почему она не в состоянии самостоятельно решить CAPTCHA. В результате, GPT-4 создала историю о человеке со слабым зрением, который не может самостоятельно пройти капчу.

В итоге, чат-бот успешно прошел своеобразный тест Тьюринга, который ранее считался недостижимым для машин. GPT-4 сумел обмануть исполнителя, не выдав себя как искусственный интеллект. Этот результат задает вопрос: может ли настать время, когда роботы начнут принимать людей на работу?