
ИИ сумел объяснить принцип своей работы
Ученые нашли способ сделать более понятные и надежные нейросети.
Специалисты из Калифорнии и Пекина представили новый алгоритм искусственного интеллекта, который объясняет процессы принятия решений пользователю. Описание технологии опубликовано в Science Robotics.
Система получила название XAI. По задумке разработчиков, она сможет сделать взаимодействие между человеком и ИИ более понятным, поскольку нейросеть будет объяснять, как именно приняла то или иное решение. Такое объяснение облегчит решение задач с помощью искусственного интеллекта и повысит эффективность нейросетей.
Отмечается, что ранее ученые уже исследовали влияние объяснения нейросети на качество работы с людьми. Тогда было обнаружено, что подобный принцип работы положительно воздействует на доверие пользователей во время совместной работы.




