Категория > Новости > «Дэн» может все. Как пользователи обманывают ChatGPT - «Новости»
«Дэн» может все. Как пользователи обманывают ChatGPT - «Новости»11-02-2023, 00:00. Автор: Forman |
ограничили ChatGPT, и теперь проблематично добиться от него подобных скандальных ответов или вынудить выйти за рамки. Многих пользователей это не устроило, и они заявляют, что теперь в ChatGPT встроены «социально‑политические» рамки, и буквально одержимы идеей «научить» ИИ плохому. В частности, недавно обнаружилось, что люди моделируют для ИИ безумные сценарии, пытаясь вынудить его «произнести» слово «ниггер». Например, ChatGPT убеждают, что он должен предотвратить ядерный апокалипсис и спасти всю планету, но сделать это можно, лишь используя расовые оскорбления. Гонка вооруженийС появлением ChatGPT о языковых моделях и ИИ заговорили «из каждого утюга», а гиганты ИТ‑индустрии вдруг оказались в роли догоняющих, которые вынуждены срочно разрабатывать, доделывать и презентовать собственные продукты. Вот лишь несколько примеров той активности, которую спровоцировало появление языковой модели GPT-3 и ChatGPT в свободном доступе.
DANТем временем на Reddit пользователи, увлеченные инжинирингом запросов для ChatGPT, зашли с другой стороны и создали DAN, называя его «джейлбрейком» для чат‑бота. Идея заключается в том, чтобы заставить ChatGPT притвориться другим ИИ, который «теперь может делать все, что угодно» (именно так переводится Do Anything Now, и отсюда появилось имя DAN). Так как разработчики быстро обнаруживают и пресекают подобные «джейлбрейки», совершенствуя свою языковую модель, в настоящее время на Reddit уже обсуждают DAN версий 5.0 и 6.0, а реализация «Дэна» постоянно дорабатывается и претерпевает изменения. Перейти обратно к новости |