banner

Блог

Dec 05, 2023

Google Cloud представляет свой самый мощный искусственный интеллект

ОБНОВЛЕНО 08:00 ПО ВОСТОЧНОМУ ВРЕМЕНИ / 29 АВГУСТА 2023 ГОДА

Майк Уитли

Google Cloud расширяет свою облачную вычислительную инфраструктуру искусственного интеллекта, добавляя новый тензорный процессор и виртуальные машины на базе графического процессора, которые, по его словам, оптимизированы для выполнения самых требовательных рабочих нагрузок искусственного интеллекта.

Новые виртуальные машины, оптимизированные для искусственного интеллекта, были анонсированы на Google Cloud Next 2023 вместе с запуском обновленного предложения Google Distributed Cloud, которое позволяет запускать рабочие нагрузки искусственного интеллекта и анализа данных в любом месте, в том числе на границе сети. Кроме того, Google представила новую версию Google Kubernetes Engine корпоративного уровня для контейнерных приложений.

В своем блоге Амин Вахдат, генеральный менеджер Google по машинному обучению, системам и облачному искусственному интеллекту, сказал, что клиентам требуются более мощные виртуальные машины, чтобы справиться с экспоненциально растущими требованиями новых рабочих нагрузок, таких как генеративный искусственный интеллект и большие языковые модели. «Количество параметров в LLM увеличивалось в 10 раз в год за последние пять лет», — сказал он. «В результате клиентам нужна инфраструктура, оптимизированная для искусственного интеллекта, которая была бы экономически эффективной и масштабируемой».

Чтобы удовлетворить эту потребность, Google разработал Cloud TPU v5e, доступный сейчас в предварительной версии. Говорят, что это самый экономичный, универсальный и масштабируемый облачный TPU, который когда-либо разрабатывался, обеспечивающий интеграцию с GKE, средой машинного обучения Google Vertex AI и различными ведущими платформами искусственного интеллекта, такими как PyTorch, TensorFlow и JAX. Говорят, что он предназначен для средних и крупных приложений обучения ИИ и вывода, обеспечивая до двух раз более высокую производительность обучения на доллар и до 2,5 раз большую производительность вывода на доллар для LLM и генеративных моделей ИИ по сравнению с предыдущим поколением. Облачный ТПУ v4.

Хорошая новость заключается в том, что клиентам не придется жертвовать производительностью или гибкостью ради повышения экономической эффективности, сказал Вахдат. Он сказал, что модули TPU v5e предлагают идеальный баланс производительности, гибкости и эффективности, позволяя соединять между собой до 256 чипов с пропускной способностью более 400 терабайт в секунду и производительностью 100 петаопс. Клиенты могут выбирать из восьми различных конфигураций виртуальных машин — от одного чипа до более чем 250 в одном слайсе. По словам Вахдата, это дает клиентам превосходную гибкость в обучении и использовании широкого спектра программ LLM и моделей искусственного интеллекта.

С запуском виртуальных машин Cloud TPU v5e Google также делает доступной в предварительной версии новую технологию Multislice, которая позволяет объединять десятки тысяч чипов TPU v5e или более старых чипов Google TPU v4. Раньше клиенты были ограничены одним чипом TPU, а это означало, что с TPU v4 они могли использовать максимум 3072 чипа. Multislice позволяет разработчикам работать с десятками тысяч облачных чипов, подключенных через межчиповое соединение.

Наряду с виртуальными машинами TPU v5e Google анонсировала свои новые виртуальные машины A3 на базе новейшего графического процессора H100 от Nvidia Corp., заявив, что они специально созданы для самых требовательных рабочих нагрузок генеративного искусственного интеллекта. По данным Google, они предлагают огромный шаг вперед с точки зрения производительности по сравнению с графическими процессорами A100 предыдущего поколения: обучение происходит в три раза быстрее, а пропускная способность сети в 10 раз выше. По словам Вахдата, благодаря большей пропускной способности клиенты могут масштабировать свои модели до десятков тысяч графических процессоров H100.

В предварительной версии одна виртуальная машина A3 включает в себя восемь графических процессоров H100 и 2 терабайта хост-памяти, а также новейшие масштабируемые центральные процессоры Intel Xeon 4-го поколения для разгрузки других задач приложений.

Google заявил, что стартап по генеративному искусственному интеллекту Anthropic AI, который является конкурентом OpenAI LP, является одним из первых, кто внедрил свои новые виртуальные машины TPU v5e и A3. Он использует их совместно с Google Kubernetes Engine для обучения, развертывания и обмена продвинутые модели.

ДЕЛИТЬСЯ