Nvidia может захватить важнейшую часть рынка искусственного интеллекта
Москва, 3 декабря - "Вести.Экономика" Основными задачами искусственного интеллекта (ИИ) являются обучение и инференс. Первый - это процесс подготовки моделей искусственного интеллекта для производственных приложений, требующий больших объемов данных. Обучение модели искусственного интеллекта гарантирует, что она может точно и автоматизированно выполнять поставленные перед ней задачи, такие как распознавание лиц или понимание речи человека. Инференс – это та задача, для выполнения которой необходимы обученные нейронные сети. Так как новые данные поступают в систему в виде изображений, речи, поисковых запросов по изображениям, именно инференс позволяет находить ответы и давать рекомендации, что лежит в основе большинства сервисов искусственного интеллекта. Инференс - это крупный бизнес, и он должен стать крупнейшим драйвером роста ИИ. Согласно подсчетам McKinsey, к 2025 году распространение инференс-оборудования ИИ в центре обработки данных будут вдвое выше, чем оборудования для тренировки ИИ (от $9 до $10 миллиардов против $4-5 миллиардов сегодня). При развертывании периферийных устройств рынок инференс-решений к тому же году в три раза увеличится по сравнению с рынком аппаратного обеспечения для обучения алгоритмов. По прогнозам Tractica, рынок чипсетов для глубокого обучения увеличится с $1,6 млрд. в 2017 году до $66,3 млрд. к 2025 году. Nvidia будет расти лучше, чем ожидалось, благодаря своему раннему лидерству в области чипов аппаратных ускорителей ИИ для платформ инференса, пишет MarketWatch. Это преимущество должно сохраняться, по крайней мере, в течение следующих двух лет, учитывая рост отрасли, а также существующий ассортимент продукции и позиционирование компании. В большинстве серверных и облачных приложений машинного обучения, глубокого обучения и обработки естественного языка графический процессор (GPU), является основной архитектурой микросхем, используемых как для обучения, так и для инференса. GPU - это программируемый процессор, предназначенный для быстрой визуализации изображений и видео высокого разрешения, изначально использовавшийся в играх. Самое большое преимущество Nvidia - и, возможно, самая большая уязвимость перед конкурентами - заключается в технологии ее основных чипсетов. GPU Nvidia были оптимизированы в первую очередь для крупномасштабного и высокоскоростного обучения моделей искусственного интеллекта, хотя они также используются в задачах инференса в большинстве серверных приложений для машинного обучения. Сегодня эта GPU-технология является существенным конкурентным преимуществом на рынке инференса в дата-центре. GPU-ускорение для инференса глубокого обучения дает возможность крупным нейросетям работать практически в режиме реального времени, не требуя увеличения затрат на аппаратную часть. По оценкам Nvidia, это обеспечивает высокую точность работы сетей с целочисленной математикой и данными с плавающей точкой, что, в свою очередь, позволяет сократить серверные затраты до 70%. Сервер, оснащенный одним GPU, обеспечивает в разы более высокую производительность в задачах инференса по сравнению с сервером на основе процессора (CPU), что приводит к значительному снижению затрат на инфраструктуру дата-центра. В чем разница между GPU и CPU? Проще говоря, центральный процессор - это мозг компьютера, а GPU выступает в роли специализированного микропроцессора. CPU может справляться с несколькими задачами, а GPU может справляться с меньшим числом задач, но очень быстро. В то время как графические процессоры Nvidia способны выполнять самые ресурсоемкие ИИ-задачи в облачных и серверных платформах, GPU не так экономичны для автоматизации инференса в мобильных, IoT и других приложениях "периферийных вычислений". Такие технологии, как CPU, ASIC, FPGA и различные нейросетевые процессоры, имеют преимущества в производительности, стоимости и энергоэффективности по сравнению с GPU для инференса искусственного интеллекта в ярде случаев, например, в сфере самоуправляемых автомобилей и робототехники. Nvidia, несомненно, признает, что гораздо большие возможности открываются благодаря решениям для инференса нейросетей и другим компонентам, оптимизированным для развертывания в периферийных устройствах. Однако компания работает над тем, чтобы расширить или усовершенствовать свои текущие предложения за счет более дешевых специализированных чипов искусственного интеллекта для работы с этой важной частью рынка. Nvidia продолжает совершенствовать свою GPU-технологию, чтобы сократить разрыв в производительности по сравнению с другими чиповыми архитектурами. Одним из заметных недавних достижений стал недавний выпуск нового модуля Jetson Xavier NX, который нацелен на выполнение высоконагруженных задач и в частности ИИ. Как отмечается, с выпуском Jetson Xavier NX открываются новые возможности для выпуска встраиваемых периферийных вычислительных устройств, которые требуют повышенной производительности, но ограничены размером, весом, энергопотреблением или стоимостью. К таковым относятся небольшие коммерческие роботы, беспилотники, различные интеллектуальные датчики высокого разрешения для индустриального применения, сетевые видеорегистраторы, портативные медицинские устройства и другие промышленные системы IoT. Значительные возможности, связанные с ростом решений для инференса глубокого обучения будут стимулировать инновации и конкуренцию для разработки более мощных и доступных решений искусственного интеллекта. С большими ресурсами и возможностями, несомненно, у Nvidia есть вероятность осуществить прорыв, который может быстро изменить позиции в сфере ИИ-инференса. Дэниел Ньюман, ведущий аналитик Futurum Research, считает, что сильная рыночная позиция Nvidia сохранится, по крайней мере, в течение следующих 24 месяцев. В связи с тем, что компания уделяет повышенное внимание недорогим ускорителям для инференса, а также высокопроизводительному оборудованию для всех рабочих нагрузок ИИ, предлагает распространенные библиотеки алгоритмов, API и вспомогательные программные продукты, предназначенные для решения широкого спектра задач AI. Любому конкуренту все это нужно было бы сделать лучше, чем у Nvidia. Это была бы непростая, но вполне выполнимая задача.