Здравствуйте, hi_octane, Вы писали:
_>Ну как мне кажется проблема несколько надуманная. Вот человек умеет считать и калькулятор умеет считать. Механизмы отличаются, и калькулятор давно и бесповоротно заборол человека и в скорости и в точности расчётов. Тоже самое с хранением данных — и люди умеют запоминать, и карты памяти. И карты памяти очевидно запоминают быстрее и точнее (по больше/меньше ещё вопросы).
Еще бы. Там , где речь идет об алгоритмизируемой задаче — несомненно заборол, и еще как. И с хранением данных тоже.
_>Механизмы мышления неизбежно будут отличаться. И скорее всего компы как обычно окажутся быстрее и точнее чем люди.
А вот тут большое сомнение. Кстати, считать они стали лучше людей с самого момента их появления. ЭНИАК лучше считал, чем все его авторы. Потому что механизм, в общем, для арифметики один и тот же, что в исполнении человека, что в исполнении компьютера (детали вроде системы счисления не в счет), а скорость у него на порядки выше.
А тут явно пытаются внедрить в ИИ метод, совершенно иной, чем тот, с которым действует человеческий интеллект, и ждут успеха.
>Просто потому что мы не успокоимся, пока не получим от них превосходящей точности, а превосходящую скорость обеспечит технический прогресс.
Мы-то может, и не успокоимся, а если задача таким способом не решается ? И даже если решается — это нисколько не похоже на то, как ее решает естественный интеллект.
_>Да, ты видео по обучению Stable Diffusion с 6 фотографий смотрелАвтор: hi_octane
Дата: 10.02.23
? Оно же не просто запоминает человека с 6 фотоко 512x512 пикселей, оно даже рисует в принципе с сохранением важных черт лица. Из людей так далеко не все могут.
Нет пока. Час смотреть — времени нет.