30 июля Apple сообщила в своей технической статье, что две модели искусственного интеллекта, поддерживающие её систему искусственного интеллекта Apple Intelligence, были предподготовлены на облачных чипах, разработанных google. Это указывает на то, что крупные технологические компании ищут альтернативы nvidia в обучении передовому ии. Постоянно повторяющиеся чипы google TPU расширяются в связи с распространением алгоритмов машинного обучения, особенно алгоритмов глубокого обучения во всех областях, с увеличением спроса на оборудование для эффективных и малоэффективных вычислительных ии. Традиционные процессоры и GPU столкнулись с более неэффективными проблемами при работе с этими алгоритмами, что привело к тому, что такие технологические гиганты, как google, начали изучать исследования и разработки специализированных процессоров ускорения. Google начал планирование разработки новых специализированных архитектурных процессоров приблизительно в 2015 году с целью оптимизации процессов реализации тензорных операций в алгоритмах обучения машин. TPU v1 используется в дата-центре для ускорения стадии дедукции нейронной сети. С 65536 8-bit MAC (матричный умножить на единицы), пиковой производительность 92 топс (триллионы операций в секунду), а также пространство памяти в 28 мб. В отличие от процессоров и GPU, TPU v1 отличает время отклика и эффективность энергии, что значительно повышает скорость дедукции нейронных сетей. По мере того, как технологии продолжают развиваться, google выпускает несколько версий TPU друг за другом, повышая производительность и функции. Например, TPU v2 и TPU v3 были разработаны как сервисные процессоры и тренировочные чипы, поддерживающие более сложные задачи AI. TPU v4 также усилил расширение и гибкость, поддерживая создание массивных вычислительных скоплений AI. После того, как google столкнулся с полемикой и сомнениями, google выпустила версию TPU v5e. TPU v5e была изменена на архитектуре, с использованием одной тенсоркорской архитектуры и повышением в расчетной силе на пике INT8. Несмотря на то, что TPU v5e немного меньше, чем предыдущая версия на пиковых числовых мощностях BF16, tpu v5e более применима к заданиям дедукции и отражает стратегический выбор google на рынке вычислительной силы ии. В мае на конференции разработчиков I/O google выпустила ещё одно шестое поколение тензорных процессоров (TPU) под названием Trillium. Trillium TPU может быстрее тренировать следующую волну базовых моделей и обслуживать их с меньшими задержками и меньшими затратами. Важно то, что энергетическая эффективность Trillium TPU выше, чем на 67% по сравнению с TPU v5e. Стоит отметить, что триллиум может расширяться до 256 TPU в одном плоде с высокой пропуском и низкой задержкой. В дополнение к этой расширяемой технологии надрезов и IPU, Trillium TPU может расширяться до сотен блоков, соединяя десятки тысяч чипов в суперкомпьютерах на уровне зданий, Эти чипы взаимосвязаны между собой через сеть центров данных со скоростью нескольких пб в секунду. Google заявил, что Trillium TPU будет использоваться в качестве движущей силы для следующей волны моделей и суррогатов, в Том числе для автопилотируемых автомобильных компаний Nuro, фармацевтической компании Deep Genomics, deep genomics, и других компаний, таких как depu. Все больше и больше компаний используют чипы google TPU, чтобы удовлетворить вычисления Ай, согласно официальной информации google, ее последние затраты на эксплуатацию составляют менее 2 долларов в час, однако клиенты должны бронировать их на три года раньше, чтобы обеспечить их использование. С момента выхода в 2015 году TPU, разработанного исключительно для внутренней работы, google открыла его для общественности в 2017 году, и теперь он является одним из самых зрелых и продвинутых чипов в области искусственного интеллекта. Google использовала чипы TPU (тенсор Processing Unit) в нескольких своих объектах. Google облачная платформа широко использует чипы TPU для поддержки своей ии. Эти чипы используются для ускорения процесса обучения и дедукции машин моделям, обеспечивая высокую производительность и эффективную вычислительную мощность. Через google облачную платформу пользователи могут получить доступ к экземпляру виртуальной машины (VM), основанной на чипе TPU, для обучения и развертывания собственных моделей. Кроме того, несколько компаний уже используют чипы TPU, такие как apple, которые, согласно последним техническим темам, опубликованным в google, признаются, что компания использовала блок теневой обработки google (TPU) для обучения своих моделей искусственного интеллекта. В техническом документе, опубликованном в понедельник, Apple разработала несколько базовых лингвистических моделей в поддержку индивидуальной интеллектуальной системы apple apple Apple Intelligence, включая около 3 миллиардов параметров, которые были использованы для эффективной работы на оборудовании — консольная «модель яблочной основы» (AFM), Также существует большая модель языка серверов, разработанная для «Private Cloud Compute» (Private Cloud Compute) архитектуры apple. Apple раскрыла, что учебная модель использует 4 — е поколение чипов AI ASIC, разработанных google, TPUv4 и обновлённых чипов TPUv5. Apple из ничего на чипе 8192 TPUv4 имеет тренировочный сервер AFM, используя длину последовательности 4096 и размер 4096 последовательностей для обучения 6,3 триллионов тоken. AFM с боковой стороны тренируется на чипе TPUv5p из 2048 блоков. Кроме того, компания Anthropic, которая была названа «конкурентом OpenAI», была одной из первых пользователей чипа google TPU. Anthropic использует чип google Cloud TPU v5e для обеспечения аппаратной поддержки своей большой лингвистической модели (LLM) клауд для ускорения процесса обучения и дедукции моделей. Hugging Face и AssemblyAI, обе компании, столь же известные в области искусственного интеллекта, используют чипы google TPU для поддержки своих приложений. Кроме того, многие научные учреждения используют чипы google TPU для поддержки своих исследовательских проектов в области ии. Эти учреждения могут использовать высокопроизводительную вычислительную способность чипа TPU для ускорения экспериментальных процессов и продвижения научных исследований. Некоторые образовательные учреждения также используют чипы google TPU для обучения и обучения, чтобы помочь студентам и исследователям в обучении и освоении техники машинного обучения. В конце концов, высокопроизводительная GPU nvidia доминировала на рынке высокотехнологичных моделей искусственного интеллекта, в Том числе в OpenAI, microsoft, Anthropic и многих технологических компаниях. Однако в последние несколько лет nvidia GPU оставалась в дефиците, и поэтому такие компании, как google, Meta, oracle и tesla, самостоятельно работали над чипами, чтобы удовлетворить потребности своих систем искусственного интеллекта и продуктов. Более того, например, google, несмотря на то, что первоначально TPU была создана для внутренней рабочей нагрузки, которая, опираясь на многочисленные преимущества, сейчас приобрела более широкое применение. По мере развития технологий искусственного интеллекта и расширения рынков в будущем может появиться больше компаний, которые будут использовать чипы google TPU, чтобы удовлетворить свои вычислительные потребности в ии.

DT602 GJR2911200R1

DT602 GJR2911200R1