Google призналась, что уже около года использует в своих ЦОД заказные БИС собственной разработки
Компания Google провела фирменную конференцию «Google IO». Среди прочих откровений одно поразило практически всех — компания призналась, что уже около года использует в своих центрах по обработке данных уникальные ускорители Tensor Processing Units (TPU) собственной разработки.
Ускорители TPU предназначены для решения задач с глубоким машинным обучением (вероятно, с акцентом на выполнение операций с половинной точностью или FP16). Как часть движения в сторону платформы TPU, как теперь становится понятно, в декабре прошлого года компания открыла исходный код системы TensorFlow. Платформа TPU, в частности, обеспечивает работу сервисов RankBrain и Street View.
В Google отказались раскрывать спецификации ускорителя TPU, как и намекнули на эксклюзивную сущность данной платформы, которая станет отличительным признаком облачных сервисов компании. Но не преминули сообщить, что решение Tensor Processing Units на три поколения опережает аналогичные разработки конкурентов и может ещё на «семь лет продлить работу закона Мура». Иными словами, для решения аналогичных задач, связанных с машинным обучением, платформы на FPGA-матрицах или на процессорах общего назначения, включая графические процессоры, существенно отстают от возможностей заказной БИС Google.
Интересным также оказалось исполнение модуля TPU. Модуль выполнен с соблюдением размеров обычного жёсткого диска и устанавливается в штатный интерфейсный слот HDD. Тем самым стойки для искусственного интеллекта Google могут представлять собой наборы из обычных корзин для накопителей. Всё гениальное действительно просто!