Появление малых спутников для миссий наблюдения Земли открыло новые горизонты для космических исследований, но также создало новые проблемы, связанные с ограниченными энергетическими и вычислительными ресурсами из-за размеров и весовых ограничений таких спутников. Развивающаяся парадигма нейроморфных вычислений демонстрирует потенциал с точки зрения энергоэффективности и может быть использована в этой области. В данной статье мы пытаемся доказать применимость нейроморфных вычислений для обработки данных на борту спутников, создавая двухэтапное иерархическое приложение для обнаружения облачного покрова на многоспектральных изображениях наблюдения Земли. Мы разрабатываем и обучаем сверточную нейронную сеть (CNN), а затем преобразуем её в импульсную нейронную сеть (SNN) с использованием инструмента CNN2SNN платформы Akida от Brainchip. Мы достигаем точности 95,46%, при этом энергопотребление и задержка как минимум в 35 и 3,4 раза эффективнее соответственно на первом этапе (и в 230 и 7 раз на втором этапе) по сравнению с эквивалентной CNN, работающей на Jetson TX2.
*Перевод выполнен с помощью нейросетей
Low Power & Low Latency Cloud Cover Detection in Small Satellites Using On-board Neuromorphic Processors
Emergence of small satellites for earth observation missions has opened up new horizons for space research but at the same time posed newer challenges of limited power and compute resource arising out of the size & weight constraints imposed by these satellites. The currently evolving neuromorphic computing paradigm shows promise in terms of energy efficiency and may possibly be exploited here. In this paper, we try to prove the applicability of neuromorphic computing for on-board data processing in satellites by creating a 2-stage hierarchical cloud cover detection application for multi-spectral earth observation images. We design and train a CNN and convert it into SNN using the CNN2SNN conversion toolkit of Brainchip Akida neuromorphic platform. We achieve 95.46% accuracy while power consumption and latency are at least 35x and 3.4x more efficient respectively in stage-1 (and 230x & 7x in stage-2) compared to the equivalent CNN running on Jetson TX2.