IB-специалист Ульянов: ИИ угрожает массовым распространением фейковой информации

Автор: Павел Степанцов
Фото: © E. Vartanyan

Чем больше контента генерирует ИИ, тем сложнее понять, был ли он создан человеком.

Сегодня, 4 апреля 2023 года, в беседе с журналистами «Lenta.ru», эксперт по кибербезопасности Владимир Ульянов рассказал об опасности бесконтрольного использования ИИ обществом. Современные нейросети способны генерировать довольно качественный контент, который сложно отличить от того, что создал живой человек.

Ульянов отметил, что чем больше ИИ генерирует контента, тем сложнее понять, был ли он создан человеком. Эксперт заявил, что нейросети могут послужить появлению множества фейков в сети. Как именно бороться с этим пока не совсем понятно, но некоторые страны уже запретили использование ChatGPT, а авторы популярной нейросети Midjourney для создания изображений по текстовому описанию отключили бесплатный пробный доступ. Это произошло из-за дипфейков с изображением Папы Франциска и Дональда Трампа.

Напомним, ранее «Центральная Служба Новостей» сообщала, что Илон Маск и более 1000 экспертов в сфере ИИ потребовали приостановить обучение нейросетей. Подробности находятся здесь.