Новый чип Microsoft: где появится Maia 200 и зачем он нужен Azure

Автор: Сазонова Дарья
Фото: Generated by DALL·E

Microsoft разворачивает AI-чип Maia 200 в дата-центрах Azure

Microsoft начала развёртывание собственного ускорителя Maia 200 в дата-центрах Azure. Новый чип предназначен для задач искусственного интеллекта и станет частью гибридной инфраструктуры, в которой будут использоваться как собственные разработки компании, так и решения сторонних производителей.

В Microsoft подчёркивают, что запуск Maia 200 не означает отказ от сотрудничества с Nvidia и AMD. Руководство компании отмечает, что партнёры продолжают играть важную роль в развитии облачной инфраструктуры и обеспечении спроса на вычислительные ресурсы.

Maia 200 разработан для задач инференса — работы моделей в реальных сервисах. По данным компании, чип оптимизирован под экономику генерации токенов и позволяет эффективнее использовать вычислительные ресурсы. Он выпускается по 3-нм техпроцессу TSMC, поддерживает форматы FP8 и FP4 и оснащён памятью HBM3e объёмом 216 ГБ.

Microsoft заявляет, что Maia 200 демонстрирует конкурентные показатели по сравнению с аналогичными решениями Amazon и Google, особенно в задачах низкой точности, востребованных в современных AI-сервисах.

Первым регионом размещения нового ускорителя стал Azure US Central в Айове. В ближайшее время Microsoft планирует развернуть Maia 200 в регионе US West 3 в районе Финикса, а затем расширить использование чипа и в других дата-центрах.

Эксперты портала «boda» отмечают, что Maia 200 будет задействован для поддержки моделей OpenAI в Azure, а также в продуктах Microsoft Foundry и Microsoft 365 Copilot. Кроме того, приоритетный доступ к новому чипу получит внутренняя команда Superintelligence, которая занимается разработкой перспективных AI-моделей.

Одновременно компания представила превью Maia SDK, включающее инструменты для разработчиков, интеграцию с PyTorch и оптимизированные библиотеки. В Microsoft рассчитывают, что это упростит адаптацию сервисов под новый чип.