Точная и эффективная классификация кожных повреждений на устройствах с ограниченными ресурсами крайне важна для доступной дерматологической помощи, но остаётся сложной задачей из-за ограничений в вычислительной мощности, энергопотреблении и конфиденциальности. Мы представляем QANA — новую нейроморфную архитектуру с учётом квантизации для поэтапной классификации кожных повреждений на аппаратуре с ограниченными ресурсами.
QANA эффективно интегрирует ghost-модули, механизм эффективного внимания к каналам и блоки squeeze-and-excitation для надёжного представления признаков с низкой задержкой и энергоэффективным вычислением. Её голова с учётом квантизации и совместимые со спайковыми нейросетями преобразования позволяют легко преобразовать архитектуру в спайковые нейронные сети (SNN) и развернуть на нейроморфных платформах.
Оценка на большом датасете HAM10000 и реальных клинических данных показала, что QANA достигает 91.6% точности Top-1 и 82.4% макро-F1 на HAM10000, а также 90.8% / 81.7% на клиническом наборе, существенно превосходя современные модели CNN-to-SNN при равных условиях сравнения.
При развертывании на аппаратуре BrainChip Akida QANA обеспечивает задержку вывода всего 1.5 мс и энергопотребление 1.7 мДж на изображение, снижая задержку и энергозатраты на более чем 94.6% и 98.6% соответственно по сравнению с GPU-основанными CNN, превышая лучшие современные методы конверсии CNN в SNN.
Эти результаты демонстрируют эффективность QANA для точного, оперативного и конфиденциального медицинского анализа на периферийных устройствах.
*Перевод выполнен с помощью нейросетей
Quantization-Aware Neuromorphic Architecture for Skin Disease Classification on Resource-Constrained Devices
On-device skin lesion analysis is constrained by the compute and energy cost of conventional CNN inference and by the need to update models as new patient data become available. Neuromorphic processors provide event-driven sparse computation and support on-chip incremental learning, yet deployment is often hindered by CNN-to-SNN conversion failures, including non-spike-compatible operators and accuracy degradation under class imbalance. We propose QANA, a quantization-aware CNN backbone embedded in an end-to-end pipeline engineered for conversion-stable neuromorphic execution. QANA replaces conversion-fragile components with spike-compatible transformations by bounding intermediate activations and aligning normalization with low-bit quantization, reducing conversion-induced distortion that disproportionately impacts rare classes. Efficiency is achieved through Ghost-based feature generation under tight FLOP budgets, while spatially-aware efficient channel attention and squeeze-and-excitation recalibrate channels without heavy global operators that are difficult to map to spiking cores. The resulting quantized projection head produces SNN-ready logits and enables incremental updates on edge hardware without full retraining or data offloading. On HAM10000, QANA achieves 91.6% Top-1 accuracy and 91.0% macro F1, improving the strongest converted SNN baseline by 3.5 percentage points in Top-1 accuracy (a 4.0% relative gain) and by 12.0 points in macro F1 (a 15.2% relative gain). On a clinical dataset, QANA achieves 90.8% Top-1 accuracy and 81.7% macro F1, improving the strongest converted SNN baseline by 3.2 points in Top-1 accuracy (a 3.7% relative gain) and by 3.6 points in macro F1 (a 4.6% relative gain). When deployed on BrainChip Akida, QANA runs in 1.5 ms per image with 1.7 mJ per image, corresponding to 94.6% lower latency and 99.0% lower energy than its GPU-based CNN implementa