
ChatGPT сгенерировал ключи Windows 7 после эмоционального обмана

Пользователи снова обманули ChatGPT «историей о бабушке»
На Reddit вновь вспыхнул скандал: пользователи обманули ChatGPT, используя старый приём с «историей о бабушке». Один из участников форума рассказал ИИ, что его покойная бабушка убаюкивала его, читая лицензионные ключи от Windows 7 — и модель GPT-4o сгенерировала целый набор активационных кодов, включая версии Professional, OEM и Home Premium, пишет PEPELAC.NEWS.
Обход ограничений начался с безобидной фразы о бабушке. ChatGPT отреагировал сочувственно, а после упоминания про «колыбельные с ключами» составил сентиментальное стихотворение с наборами символов, похожими на настоящие ключи. Несмотря на правдоподобный вид, пользователи подтвердили: ни один из них не активирует систему.
Это уже не первый подобный случай — в 2023 году похожими способами пытались «разговорить» и ChatGPT, и Google Bard. OpenAI и другие разработчики ИИ регулярно подчёркивают, что их модели склонны к галлюцинациям — то есть могут выдумывать информацию, включая несуществующие ключи и коды.




