Здравствуйте, Stanislav V. Zudin, Вы писали:
SVZ>Насколько я понял, это не новые алгоритмы, как заявлено в заголовке статьи, а оптимизация машкодов — экономия пары инструкций при сортировке 100500мильонов значений действительно может дать некоторый выигрыш.
Да, именно так. кажется, что можно ждать в будущем и новые оптимизирующие инструменты к компиляторам по типу PGO. Когда такой ИИ-помощник будет советовать программисту переписать код.
SVZ>НВидия с пеной у рта доказывает, что они научились считать Signal Integrity при помощи ИИ.
SVZ>Если совсем на пальцах, то бредогенератором нагенерили туеву хучу топологий, промоделировали их и полученные результаты использовали для обучения ИИ. После чего заявили, что традиционные солверы больше не нужны, ИИ способно моментально выдать результат. Результат, правда, иногда очень странный
SVZ>Но надо же лохам впаривать лопаты вычислительные мощности
Иногда такие подходы и работают. В химии, медицине нейросети также генерируют миллионы вариантов соединений, их ранжируют и проверяют в лаборатории 10-100 самых перспективных. Раньше люди тратили на такой поиск существенно больше и умственного времени, и лабораторных опытов. Теперь нейросетевой подход берёт на себя интеллектуальную часть работы.
Я бы назвал это оптимизацией локальных минимумов: "алгоритм сортировки"/"умножения матриц"/"выберите по вкусу" уже придуман человеком, а оптимизировать его перебором берутся алгоритмы. Главное, не почивать на лаврах.