Генеральный директор nvidia хван инхун утверждает, что «следующее поколение промышленной революции уже началось», и мы находимся в начале следующей волны роста. Уверенность хуна в будущем частично связана с результатами первого квартала этого года. По состоянию на 28 апреля 2025 года, первый финансовый сезон 2025 года показал, что первый финансовый сезон nvidia имеет гораздо более высокий доход, чем ожидалось на уолл-стрит, и батальон собрал 260,44 миллиарда долларов США по сравнению с 262% в годовом исчислении и 247 млрд. долларов, ожидаемых на рынке; Чистая прибыль составляет 14881 МЛН долларов, рост на 628% в годовом исчислении, а рыночные ожидания — 129 миллионов долларов. «В этом квартале технология ии обеспечивает сильный импульс для роста, который подпитывается сильным и растущим спросом на то, чтобы наши центры данных были обучены и аргументом на платформе Hopper. За исключением облачных провайдеров, производственный ии был расширён в потребительские интернет-компании, а также предприятия, суверенные ии, автомобили и здравоохранение, создавая несколько вертикальных рынков на миллиарды долларов». По словам nvidia. Доходы от центра обработки данных увеличились в четыре раза, и облачные услуги, составляющие около 40 % основного бизнеса nvidia, были разделены на пять основных сегментов: бизнес-центр данных, игровой бизнес, автомобильный бизнес, профессиональный визуальный бизнес и OEM и другие. Согласно отчетным данным, бизнес и автомобильный бизнес центра данных являются двумя крупными предприятиями, которые растут в равной степени и по кругу. Доходы от работы в бизнес-лагере (сеть nvidia) составили 22,6 МЛРД долларов США, увеличившись на 427% в годовом исчислении и на 23% в цикле. Бизнес-лагерь достиг рекордно высокого уровня и является главой пяти крупнейших предприятий. NVIDIA CFO Colette Kress заявила, что рост бизнеса был вызван продолжающимся высоким спросом на чипы AI в архитектуре NVIDIA Hopper, особенно на H100. Meta, tesla по-прежнему считаются крупнейшими покупателями nvidia H100. Согласно отчету CFO Colette Kress, в первом квартале Meta накопила огромное количество чипов серии nvidia H100 для использования в её большой модели с открытым исходным кодом Lama 3, около 24 000. Модернизация алгоритма H100 позволит снизить стоимость популярных моделей, таких как Lama 3, в три раза. В бизнесе центра обработки данных, провайдеры облачных услуг приносят им 45% от общего дохода. Тесла наделил H100 мощными вычислительной мощностью, чтобы проложить путь к технике автопилотирования, прокладывая путь к производительности автопилота на уровне L5. Тесла строит кластерны H100, и мы поддерживаем расширение их обучающих скоплений искусственного интеллекта до 35 000 GPU. Такие большие кластеры, как Meta и тесла, nvidia называет их фабриками искусственного интеллекта. В первом квартале nvidia сотрудничала с более чем миллионом клиентов, создав фабрики искусственного интеллекта в масштабе от сотен до десятков тысяч гпу, некоторые из которых достигли 100 000 гпу. Клиенты Spectrum-X также продолжают увеличиваться, открывая новый рынок для сети NVIDIA и позволяя центрам данных, только ethernet, адаптироваться к массивному ии. Nvidia прогнозирует, что Spectrum-X вырастет до многомиллиардной линии продукции в течение года. Автомобильный бизнес-лагерь собрал $329 МЛН и вырос на 11% в годовом исчислении и на 17% в кольцевой доле. Нет никаких сомнений в Том, что чипы автопилотирования, такие как NVIDIA DRIVE Orin и DRIVE Thor, играют важную роль на автомобильном рынке, с которыми дрив орин уже сотрудничал с xiaomi SU7, и что в будущем nvidia будет работать с биади, который будет использоваться в электромобилях биади. Nvidia заявила, что они предоставляют поддержку автопилотируемым автомобилям, определённым программным обеспечением, первый электромобиль SU7, разработанный на платформе Nvidia Drive, был построен на платформе nvidia Drive, в то время как биади, сяо пэнг, широкопаровые и другие компании, такие как nvidia drive Thor, выбрали следующее поколение Nvidia Drive Thor, Сейчас платформа использует архитектуру Blackwell GPU для того, чтобы обеспечить энергией следующее поколение потребительских и коммерческих электромобилей, которые, как ожидается, будут использоваться в производстве автомобилей с следующего года. Игровой бизнес-батальон собрал $2,6 МЛРД, вырос на 18% в годовом исчислении, кольцевой коэффициент упал на 8%, что согласуется с сезонным снижением ожиданий nvidia. Рынок GeForce RTX GPU очень хорошо принят, а конечный спрос и канальные запасы остаются здоровыми во всем диапазоне продукции, и уже более 100 миллионов было установлено. Nvidia имеет полный набор технологий, которые могут быть использованы и использованы на GeForce RTX pc для быстрого и эффективного создания искусственного интеллекта. Совсем недавно NVIDIA объявила, что использует nvidia tenсорrt -LLM для ускорения последней модели Phi-3 Mini с открытым исходным кодом microsoft. GeForce RTX — это потребительский уровень GPU, созданный исключительно для ии, и GeForce RTX позволяет игрокам из Ай-PC играть в игру с более высоким качеством кадров в то время, когда они перешли от концепций к более мощным функциям. Доход от профессионального визуального бизнеса составляет 427 миллионов долларов, выросший на 45% в годовом исчислении и снижающийся на 8% по сравнению с аналогичным показателем. На конференции GTC, nvidia выпустила новый Omniverse Cloud API (прикладной программный интерфейс). Хван инхун заявил, что омниверсе и генерируемые ии являются базовыми технологиями, необходимыми для оцифровки тяжелого промышленного рынка стоимостью до 50 триллионов долларов США», которые станут ключевыми в стимулировании следующей волны роста профессиональной визуализации. Следующий шаг nvidia: H200, блэкуэлл будут поставлены в Q2, и быстрый рост сетевого бизнеса в первом квартале от финансовой отчетности nvidia позволяет видеть лидерство компании в секторе ии и ее сильную прибыльность. Обратите внимание на прогресс в этом году двух новых товаров, таких как nvidia H200, блэкуэлл: H200: дата-центр является наиболее прибыльным бизнесом nvidia, и все сосредоточены на ее последующем планировании продукции. С точки зрения расходов на тепло H100 можно предположить, что H200 не так уж плох и даже более прибылен. В отличие от H100, H200 увеличивает пропускную способность памяти в 1,4 раза, общая пропускная способность памяти достигает 4,8 тб/с, объем памяти увеличивается в 1,8 раза, а объем памяти составляет 141 гб. «Мы начинаем выборочное производство H200 с первого квартала и ожидаем отправку во второй квартал. Первая система H200 была доставлена команде сэма альтман и OpenAI и продемонстрировала GPT-4o». Это также первая в индустрии система DGX H200, предназначенная для обучения более сложных моделей производственного ии и других высокопроизводительных вычислительных приложений. В этом году nvidia официально представила новое поколение графических процессоров AI Blackwell. Blackwell GPU ориентирована на центральную платформу следующего поколения ускоренных вычислений и генерируемого искусственного интеллекта. С помощью чипа B200, с 208 миллиардами транзисторов, ии-дедукция увеличилась в 30 раз по сравнению с предыдущим поколением, а потребление энергии сократилось в 25 раз, что считается самым мощным из существующих чипов. На финансовом совещании nvidia ясно дала понять, что в этом году она увидит значительное количество доходов от серии B. «Мы производим некоторое время и ожидаем, что Q2 начнет поставляться, Q3 начнет увеличивать урожаи, и клиенты будут создавать центры данных в Q4.» Некоторые проблемы: в настоящее время спрос на Hopper продолжает расти, и nvidia прогнозирует, что во время перехода к H200 и блэкуэлл спрос будет значительно выше спроса, поскольку клиенты активно размещают инфраструктуру. Nvidia также говорит о Том, что спрос на GPU во всех центрах обработки данных является невероятным, что мы играем каждый день, и что клиент оказывает огромное давление, и мы должны как можно скорее доставить систему и поддержать ее функционирование. Тем не менее, nvidia планирует совместно с облачными партнерами стимулировать глобальную доступность. Тем не менее, в связи с резким сниженным дохождением от nvidia в центрах обработки данных китая, CFO Colette Kress по телефону упомянул о планировании китайского рынка, который, по его мнению, будет оставаться конкурентоспособным в будущем, «мы увеличили количество новых продуктов, созданных специально для китая, которые не нуждаются в лицензии на экспорт». Следующий этап: интернет станет новым добавлением во втором квартале, и nvidia прогнозирует общий доход в 28 миллиардов долларов и минус 2%. Мы ожидаем непрерывный рост на всех платформах рынка. Ожидается, что волосатые процентные ставки GAAP и не GAAP будут составлять 74,8 % и 75,5 % соответственно, плюс минус 50 базовых пунктов, что согласуется с дискуссиями, которые мы обсуждали в прошлом квартале. В случае мао, nvidia прогнозирует, что ставка мао в течение года составит около 70%. Как во втором квартале, так и в течение всего года nvidia была очень уверена в прибыльности компании, чтобы приветствовать следующую волну роста. Но следует отметить, что следующая волна расширения также является следующей волной ключевых стадий конкуренции. Текущ, мног дом AI чип производител полож глаз на AI област рост движущ сил, посвят себ AI разработк чип, кром всегд конкурент intel, AMD, qualcomm, у и microsoft, амазонк ждат ест план с созда AI чип план, ли эт nvidia и дальш сво развит повлия на, как бы nvidia снов «получ»? Это можно увидеть в другом бизнесе nvidia, кроме чипа AI. На финансовом совещании nvidia выделила три сетевых канала: NVLink, InfiniBand вычислительная архитектура для одного вычислительного поля, а также вычислительная архитектура ethernet network, и продвигая эти три технологии с очень большой скоростью в новом году, в более глубоком плане планируя искусственный интеллект (завод искусственного интеллекта), AI cloud (облако искусственного интеллекта), Это также означает, что в этом году сетевой бизнес принесет больше батальонных сборов. Nvidia подчеркнула, что компании готовы к следующей волне роста от блэкуэлла до Spectrum-X и NIM. Будущее Spectrum, как сетевая платформа AI ethernet, имеет небольшой стимул для роста в будущем, и nvidia считает, что она принесет миллиарды долларов прибыли в течение года. Ранее сообщалось, что Spectrum-X будет первым в линейке серверов, которые будут использованы в dell technology group, hei and technology и country. Кроме того, Spectrum-X также может управлять суперкомпьютером NVIDIA Israel-1. NIM будет поставляться как часть корпоративной платформы NVIDIA AI для производства в облаках или на местах. Микроуслуги типа контейнера, NVIDIA NIM, могут позволить традиционным предприятиям использовать свои собственные данные непосредственно для размещания специализированных промышленных моделей, что бесспорно является популярным в настоящее время. Преимущество nvidia также состоит в создании собственной архитектуры системы: «мы можем создать нечто с очень большим доменным полем NVLink, которое имеет решающее значение для рассуждений следующего поколения крупных языковых моделей. Таким образом, вы можете видеть GB200 с 72 узлами NVLink. Это как 72 Blackwells, подключенных к гигантскому GPU. Поэтому для этого нам нужна Грейс блэкуэллс.» Nvidia заявила об этом на финансовом собрании. Nvidia утверждает, что сочетание процессора Грейс, графического процессора блэкуелла, NVLink, Quantum, Spectrum, гибрида и коммутатора, высокоскоростной связи, а также изобилие программного обеспечения и экосистемы партнеров позволяет нам расширяться, И предлагает более богатые и полные решения для заводов искусственного интеллекта, чем предыдущие поколения.

FBM216

FBM216