Вчера, 5 апреля, Google опубликовала подробную информацию об одном из своих новых суперкомпьютеров с искусственным интеллектом. Компания заявляет, что разработка обходит по скорости и эффективности конкурирующие системы Nvidia.
В то время как “компания зелёных” доминирует на рынке обучения и развёртывания моделей искусственного интеллекта (более 90% рынка), Google с 2016 года делает акцент на разработку собственных высокопроизводительных чипов, именуемых компанией тензорными процессорами (Tensor Processing Unit, TPU).
Тем не менее, за последнее десятилетие Google сделала очень много для развития искусственного интеллекта. Сотрудники американской корпорации разработали многие ключевые технологии, которые в настоящее время используются повсеместно. Однако с точки зрения коммерциализации своих разработок, по мнению многих, компания существенно отстаёт от конкурентов.
Последние годы внутри компании стояла не самая благоприятная атмосфера, вынуждающая разработчиков и инженеров представить такой продукт, который сразу бы всем доказал, что Google не сбавляет позиции и остаётся одной из ведущих компаний в области технологий искусственного интеллекта.
Модели и продукты с искусственным интеллектом, такие как Bard от Google или ChatGPT от OpenAI, работающие на чипах Nvidia A100, требуют большого количества компьютеров и тысячи чипов, использующихся совместно, для обучения и работы ИИ-моделей. Эти компьютеры эксплуатируются круглосуточно в течение многих недель или даже месяцев, что определённо накладывает некоторые неудобства.
Ещё во вторник Google сообщила, что создала единую систему с более чем 4000 процессорами, предназначенную для эффективного функционирования, а также быстрого обучения моделей искусственного интеллекта. Суперкомпьютер Google на базе TPU, называемый TPU v4, “в 1,2-1,7 раза быстрее и потребляет в 1,3-1,9 раза меньше энергии, чем Nvidia A100. Производительность, масштабируемость и доступность делают суперкомпьютеры TPU v4 рабочими лошадками для использования в связке с большими языковыми моделями”, – пишут исследователи Google.
Однако результаты тестов новых чипов Google не сравнивались с новейшим чипом H100 от Nvidia. Он более современный и, вероятнее всего, обойдёт чипы от Google по всем фронтам. Как заявляет Nvidia, H100 обеспечивают как минимум в 4 раза большую производительность, нежели предыдущее поколение. Тем не менее, когда как Nvidia пока что просто продемонстрировала новый чип, Google уже представила готовый суперкомпьютер. Пока что Google впереди, но ситуация может в корне измениться, если “зелёные” в ближайшее время представят свой собственный суперкомпьютер.
Значительный объем компьютерной мощности, необходимый для искусственного интеллекта, стоит отнюдь недешёво, поэтому многие компании в отрасли, как Google и Nvidia, сосредоточены на разработке новых чипов, компонентов, программных технологий и даже вышеупомянутых суперкомпьютеров, чтобы в перспективе удешевить технологии, необходимые для обучения и функционирования искусственного интеллекта и нейросетей.
Требования к энергопотреблению искусственного интеллекта также пока ещё крайне высоки, что является своеобразной отдушиной для облачных провайдеров, таких как Google, Microsoft и Amazon, которые сдают свои компьютерные мощности в почасовую аренду и неплохо на этом зарабатывают. Например, Google недавно сообщила, что последняя версия скандально известного ИИ-генератора изображений Midjourney была обучена на её TPU-чипах.