Както ONNX runtime я упустил. MS его пилит, есть сборки WASM в том числе.
У кого-то есть опыт использования onnx runtime для распознавания в боевых проектах?
Здравствуйте, Артём, Вы писали:
Аё>Както ONNX runtime я упустил. MS его пилит, есть сборки WASM в том числе. Аё>У кого-то есть опыт использования onnx runtime для распознавания в боевых проектах?
Нафига козе баян?
Для CPU openvino.
Для GPU cuDNN и движки, что на данный момент грамотнее его юзают.
ONNX удобен для переноса моделей между различными движками.
Здравствуйте, Артём, Вы писали:
Аё>Мне в SPA на ios/android крутить.
Я не пользуюсь им. Для Nvidia — TensorRT, что лискретки, что Джетсоны. Для CPU практически ничего, OpenVINO годная библиотека, но гемора с ней много, я когда-то поддерживал, даже баги находил, но плюнул.
У айфонов же свой бэкенд, вполне можно в onnx, а потом к ним в Core ML. Для Андроида TFLite. Как по мне, чем нативнее, тем лучше. Хвалили ещё ncnn, но я не пробовал.
Здравствуйте, Nuzhny, Вы писали:
N>У айфонов же свой бэкенд, вполне можно в onnx, а потом к ним в Core ML. Для Андроида TFLite. Как по мне, чем нативнее, тем лучше. Хвалили ещё ncnn, но я не пробовал.
На ios апи из коробки нативный прототип показал достаточно хороший результат сканирования и без кастомных моделей. Трабла в том, что за морем тёлочка да рубль перевоз аппа это веб.