ИИ как новая угроза для мировой экономики

Автор: Анна Рудакова
Фото: RusPhotoBank

Эксперты выдвинули новые опасения по поводу ИИ

Недавно, Регулирующий орган финансовой индустрии (FINRA), назвал ИИ «возникающим риском». В то же время, на Всемирном экономическом форуме в Давосе опубликовали исследование, в котором рассказывается о дезинформации, подпитываемой ИИ, которая представляет самую большую угрозу для мировой экономики в ближайшей перспективе.
Эти сообщения появились всего через несколько недель после того, как Совет по надзору за финансовой стабильностью в Вашингтоне заявил, что ИИ может нанести «прямой вред потребителям».

Гэри Генслер, председатель Комиссии по ценным бумагам и биржам (SEC), публично предупредил об угрозе финансовой стабильности со стороны многочисленных инвестиционных фирм, полагающихся на аналогичные модели ИИ для принятия решений о покупке и продаже. На ежегодной конференции Всемирного экономического форума для ведущих руководителей компаний, политиков и миллиардеров ИИ является одной из ключевых тем и мероприятий.

Проведенный опрос среди 1500 политиков и лидеров отрасли показал, что фейковые новости и пропаганда, создаваемые и поддерживаемые чат-ботами с ИИ, являются самым большим краткосрочным риском для мировой экономики. Около половины населения мира участвует в выборах в этом году в таких странах, как Россия, Соединенные Штаты, Мексика, Индонезия и Пакистан. Исследователи дезинформации обеспокоены тем, что ИИ облегчит людям распространение ложной информации и усилит конфликты в обществе.

В декабре FSOC, который следит за финансовой системой на предмет рискованного поведения, заявил, что необнаруженные недостатки в конструкции ИИ могут приводить к предвзятым решениям, таким как отказ в выдаче кредитов кандидатам, имеющим соответствующую квалификацию. Генеративный ИИ, который обучается на огромных массивах данных, также может выдавать откровенно неправильные выводы, которые звучат убедительно, добавили в совете. FSOC, который возглавляет министр финансов Джанет Л. Йеллен, рекомендовала регулирующим органам и финансовой индустрии уделять больше внимания отслеживанию потенциальных рисков, возникающих в связи с развитием ИИ.

Генслер из SEC был одним из самых откровенных критиков ИИ. В декабре его агентство запросило информацию об использовании ИИ у нескольких инвестиционных консультантов,

сказала WP Карен Барр, глава Ассоциации инвестиционных консультантов, отраслевой группы.

Запрос о предоставлении информации, известный как «проверка», поступил через пять месяцев после того, как комиссия предложила новые правила для предотвращения конфликта интересов между консультантами, использующими тип ИИ, известный как прогнозный анализ данных, и их клиентами. По словам Барра, существующие нормативные акты уже требуют, чтобы консультанты по инвестициям уделяли приоритетное внимание потребностям своих клиентов и избегали подобных конфликтов. Ее группа хочет, чтобы SEC отозвала предложенное правило и основывала любые будущие действия на том, что она узнает из своей информационной проверки.

Компании, оказывающие финансовые услуги, видят возможности улучшить коммуникации с клиентами, операции бэк-офиса и управление портфелем ценных бумаг. Но ИИ также влечет за собой большие риски. Алгоритмы, принимающие финансовые решения, могут привести к необъективным кредитным решениям, которые лишат меньшинства доступа к кредитам или даже вызовут обвал мирового рынка, если десятки учреждений, полагающихся на одну и ту же систему искусственного интеллекта, будут продавать одновременно.

Это отличается от того, что мы видели раньше. ИИ способен делать что-то без участия человеческих рук,

сказал Джереми Уильямс, бывший сотрудник SEC.

На фоне бума искусственного интеллекта, который способствовал омоложению технологической отрасли, руководители некоторых компаний предупредили, что потенциал ИИ в разжигании социального хаоса соперничает с ядерным оружием и смертельными пандемиями. Многие исследователи говорят, что эти опасения отвлекают от реального воздействия ИИ. Другие эксперты и предприниматели уверены, что опасения по поводу технологий преувеличены и рискуют подтолкнуть регулирующие органы к блокированию инноваций, которые могли бы помочь людям и увеличить прибыль технологических компаний.