Провайдер решений для бизнеса CorpSoft24 предоставил в аренду сильные серверы, оснащенные видеокартами Nvidia A100 PCIe, компании, предлагающей свои продукты на базе SaaS. Ооборудование создано для выполнения трудных вычислений – в частности, для решения разных задач в области искусственного интеллекта и машинного обучения.
Заказчик арендовал у CorpSoft24 три сильных сервера, оснащенных профессиональными видеокартами Nvidia A100 PCIe на архитектуре Nvidia Ampere с объемом памяти 80 ГБ. Хорошие показатели объема памяти и пропускной способности обеспечивают этим устройствам высокую производительность при выполнении таких задач, как аналитика большого объема данных, моделирование, машинное обучение. Новые сильные серверы позволят заказчику делать лучше это направление, имея большой резерв вычислительных мощностей.
«Количество сценариев, в каких могут применяться технологии искусственного интеллекта, непрерывно растет. Многие крупные ИТ-компании зрят в развитии этого направления перспективную точку роста. При этом им необходимы большие вычислительные мощности – например, для обучения языковых моделей, помощи производительной работы нейросети и прочих», – объясняет Денис Афанасьев, руководитель облачного направления CorpSoft24.
По его словам, одним из вариантов решения этой задачи является аренда сильных вычислительных серверов. Превосходство такого подхода состоит в том, что компания получает в пользование сервер (или несколько) целиком, в нужной конфигурации и может развернуть на нем любые долгосрочные ресурсоемкие проекты. Выбор ПО, размещаемого на сервере, остается за заказчиком, а за его обслуживание, физическую защиту и организацию доступа к высокоскоростному каналу связи отвечает провайдер. Кроме того, производительное оборудование требует повышенного энергопотребления, что, с учетом необходимости резервирования каналов энергоснабжения, выгоднее доверить дата-центру.
«Мы видим, что все больше ИТ-компаний внедряют элементы машинного обучения в свои продукты, занимаются интеллектуальной аналитикой больших данных, обучением LLM, внедряют методологию MLOps. И без этого громадный спрос на инфраструктуру под задачи AI/ML в ближайшие несколько лет будет только создавать себе подобных, и вычислительные ресурсы будут в дефиците. Поэтому мы планируем расширять наш парк серверов с GPU, покупать более сильные карты супружества Nvidia H100 и H200 на продвинутой архитектуре Hopper, обладающие еще большими возможностями в области трудных вычислений», – добавляет Денис Афанасьев.