Здравствуйте, Shmj, Вы писали:
IT>>Ты реально не понял главный посыл. Аппаратные изменения — это аналогия. Как и китайцы. Его основной аргумент — для творческого решения той или иной проблемы ИИ не предназначен, т.к. все связи уже есть, всё уже прописано, новых не будет.
S>А на вопрос почему нельзя создавать новые связи — он отвечает что это аппаратная а не программная проблема — потребуется в каждый процессор засунуть китайца с паяльником. S>Как видим — говорит глупость, не понимая как реализована связь.
Ты не понял. Ты зациклился на возможно не самой удачной аналогии с китайцами и не понял главного. Он говорит о том, что наш мозг сам создаёт новые связи под решение определённой задачи.
Я не большой специалист в ИИ, и моё делетантское представление о том как это работает следущее. У нас есть сеть и её структура. Структура — это важно, т.к. от этого зависит способность решать конкретные типы задач, уровень обобщений, которые способна делать модель и т.п.. Далее у нас есть алгоритм обучения. Они тоже могут быть принципиально разные для разных задач. И третье — классифицированные данные, с помощью которых обучается модель.
Когда ты говоришь, что ты в любой момент можешь переобучить модель, то, во-первых, это внешнее воздействие, модель делает это не сама, а, во-вторых, в приципе ничего особенного не меняется, модель теперь способна чуть лучше решать те задачи, которые она решала до этого.
Как я понял, Савельев говорит о том, что человеческий мозг может самостоятельно изменять свою структуру (структуру сети) и (возможно) алгоритмы обучения, и при наличии тех же знаний (классифицированных данных), способен решать задачи, которые не мог решить до этого.
Если нам не помогут, то мы тоже никого не пощадим.