На симпозиуме Google I/O в Маунтин-Вью глава организации Сундар Пичаи анонсировал интегральные схемы (ASIC) собственной разработки интернет-поисковика, предназначенные для использования в глубоких нейронных сетях. Повествование ведется о комплексных сетях, объединяющих аппаратное и программное обеспечение, которые анализируют огромные массивы информации для разных технологий, включая машинное обучение и " искусственный интеллект".
Нейронные сети — ключевой компонент во многих онлайн-сервисах Google. Именно они отвечают за идентификацию объектов и лиц на фотографиях, распознавание голоса на Android-смартфонах, а также перевод текста с одного языка на другой. Фирма называет свои чипы Tensor Processing Unit (TPU), так как в их основе лежит программный движок TensorFlow.
В Google применяют TPU уже больше года, однако Фирма приняла решение рассказать о них только в настоящее время. За нейронными сетями иных крупных IT-компаний, подобных как Фейсбук или твиттер, стоят традиционные графические процессоры, часто производства NVIDIA. По данным Пичая, TPU лучше подходят для задач интернет-поисковика: в дата-центрах они помещаются в тот же отсек стойки, что и жесткий диск, и " обеспечивают намного лучшую производительность на ватт для машинного обучения", чем стороннее " железо".
Например, TPU требуется меньше транзисторов на одну операцию в секунду, что дает возможность " применять более сложные и мощные модели машинного обучения", заявили в Google. Технические характеристики инновационных процессоров не раскрываются. Кто занимается их производством, также неизвестно.