Собственный ИИ получит каждый гаджет
|
В ближайшем будущем умные устройства не будут нуждаться в связи с облачными серверами для обработки информации сторонним искусственным интеллектом и смогут самостоятельно распознавать не только объекты, но даже жесты и речь. Edge AI — это поколение чипов, которые выполняют обработку информации с помощью ИИ непосредственно на устройстве, без облачного соединения. ARM уже несколько лет работает над созданием подобных чипов и разработала две новые конструкции микросхем: ARM Cortex-M55 и Ethos-U55, который является нейронным процессором, предназначенным для соединения с Cortex-M55 в случае потребности в большей вычислительной мощности. |
Преимущества собственного ИИ на устройстве очевидны: запуск обработки информации на самом устройстве, а не на удаленном сервере с ИИ, гарантирует конфиденциальность и производится быстрее. Но что делает новые разработки ARM особенно интересными, так это то, что они предназначены для устройств Интернета вещей. Например, в трости для слепых, оснащенной 360-градусной видеокамерой, которая может самостоятельно определять препятствия, или в новых датчиках, устанавливаемых на поезда или иные транспортные средства. |
Устройства, таким образом, не будут зависеть ни от скорости соединения с облачным сервером, ни даже от наличия связи — они будут работать как надо везде и всегда. Что касается специфики, ARM Cortex-M55 является последней моделью в линейке процессоров ARM Cortex-M, которая, по словам компании, позволяет увеличить производительность машинного обучения в 15 раз, а производительность цифровой обработки сигналов — в 5 раз по сравнению с предыдущими поколениями Cortex-М. |
Для действительно сложных задач процессор Cortex-M55 можно комбинировать с Ethos-U55 NPU, который даст 32-кратное улучшение обработки информации по сравнению с базовым Cortex-M55. Это в 480 раз лучше, чем у предыдущих поколений чипов Cortex-M. Цифры впечатляют, но что это означает на практике? Чип M55 позволяет распознавать объекты, а в сочетании с Ethos-U55 — распознавать жесты и речь. Все это может появиться уже в начале или середине 2021 года. |
Источник |
При использовании материалов с сайта активная ссылка на него обязательна
|