ONNX Runtime vs все остальные
От: Артём Австралия жж
Дата: 02.10.23 08:30
Оценка:
Както ONNX runtime я упустил. MS его пилит, есть сборки WASM в том числе.
У кого-то есть опыт использования onnx runtime для распознавания в боевых проектах?
Re: ONNX Runtime vs все остальные
От: Vzhyk2  
Дата: 03.10.23 05:19
Оценка:
Здравствуйте, Артём, Вы писали:

Аё>Както ONNX runtime я упустил. MS его пилит, есть сборки WASM в том числе.

Аё>У кого-то есть опыт использования onnx runtime для распознавания в боевых проектах?
Нафига козе баян?
Для CPU openvino.
Для GPU cuDNN и движки, что на данный момент грамотнее его юзают.
ONNX удобен для переноса моделей между различными движками.
Re[2]: ONNX Runtime vs все остальные
От: Артём Австралия жж
Дата: 05.10.23 20:06
Оценка:
Здравствуйте, Vzhyk2, Вы писали:


V>Для CPU openvino.

V>Для GPU cuDNN

Мне в SPA на ios/android крутить.
Re[3]: ONNX Runtime vs все остальные
От: Nuzhny Россия https://github.com/Nuzhny007
Дата: 05.10.23 20:57
Оценка: 2 (1)
Здравствуйте, Артём, Вы писали:

Аё>Мне в SPA на ios/android крутить.


Я не пользуюсь им. Для Nvidia — TensorRT, что лискретки, что Джетсоны. Для CPU практически ничего, OpenVINO годная библиотека, но гемора с ней много, я когда-то поддерживал, даже баги находил, но плюнул.
У айфонов же свой бэкенд, вполне можно в onnx, а потом к ним в Core ML. Для Андроида TFLite. Как по мне, чем нативнее, тем лучше. Хвалили ещё ncnn, но я не пробовал.
Re[4]: ONNX Runtime vs все остальные
От: Артём Австралия жж
Дата: 06.10.23 00:35
Оценка:
Здравствуйте, Nuzhny, Вы писали:

N>У айфонов же свой бэкенд, вполне можно в onnx, а потом к ним в Core ML. Для Андроида TFLite. Как по мне, чем нативнее, тем лучше. Хвалили ещё ncnn, но я не пробовал.


На ios апи из коробки нативный прототип показал достаточно хороший результат сканирования и без кастомных моделей. Трабла в том, что за морем тёлочка да рубль перевоз аппа это веб.
 
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.