Здравствуйте, Klapaucius, Вы писали:
V>>В строго механистичном мире тоже может быть источник энергии (например, внешний по отношению к этому миру), тоже могут быть незамкнутые системы, в которых идут процессы самоорганизации
K>Ну разумеется нет. В строго механистическом мире полная энергия мира постоянна. И никаких процессов самоорганизации тоже быть не может. Процессы самоорганизации — это термодинамика сильно неравновесных систем. Какая уж тут строгая механистичность? K>В механистичном мире нет изменения энтропии — следовательно нет стрелы времени.
Пример строго механистического детерминированного мира с внешним источником энергии — компьютерная программа, в которой не используется настоящий генератор случайных чисел (ПСЧ — разрешены). Не станете же вы утверждать, что невозможно написать программу, демонстрирующую пример самоорганизации какой-нибудь фигни?
Re[3]: Несколько дурацких вопросов по теории информации
Здравствуйте, Курилка, Вы писали:
К>А есть доказательство факта, что количество информации во всей вселенной зависит от времени?
Если второе начало термодинамики универсально, то да.
Кроме того, я то говорил о механистическом мире, в котором вообще не может быть такой системы, в которой количество информации зависит от времени. Ни в масштабах вселенной, ни в каких либо других масштабах.
... << RSDN@Home 1.2.0 alpha 4 rev. 1110>>
'You may call it "nonsense" if you like, but I'VE heard nonsense, compared with which that would be as sensible as a dictionary!' (c) Lewis Carroll
Re[5]: Несколько дурацких вопросов по теории информации
Здравствуйте, Курилка, Вы писали:
K>>Потому, что в механистическом мире для любого произвольно заданного времени t, получив полную информацию о состоянии системы мы знаем это состояние и для любого произвольного времени t'. Т.е. информации ни больше ни меньше не становится. С.м. "Демон Лапласа". К>Только тут ты нарвёшься на парадокс Рассела (где ты будешь держать полную информацию о состоянии системы?), так что имхо "не катит".
Ну, это проблема, если демон лапласа работает внутри механистического мира. А на то, что количество информации не менятся это никак не влияет. Вот есть у нас n частиц, для которых мы знаем координаты и импульсы в момент t. Энергия только механическая, никакой диссипации. Это наш карманный механистический мирок на бумаге. Можно записать гамельтониан и сыграть в демона лапласа. Как тут информация от времени зависит?
... << RSDN@Home 1.2.0 alpha 4 rev. 1110>>
'You may call it "nonsense" if you like, but I'VE heard nonsense, compared with which that would be as sensible as a dictionary!' (c) Lewis Carroll
Re[5]: Несколько дурацких вопросов по теории информации
Здравствуйте, Voblin, Вы писали:
V>Пример строго механистического детерминированного мира с внешним источником энергии — компьютерная программа, в которой не используется настоящий генератор случайных чисел (ПСЧ — разрешены). Не станете же вы утверждать, что невозможно написать программу, демонстрирующую пример самоорганизации какой-нибудь фигни?
Ну это и будет псевдосамоорганизация в таком же точно смысле, в котором числа — псевдослучайные. Система будет эволюционировать полностью детерминированно, точек бифуркации не будет. Никакой новой информации не появится.
Попробуете написать программу, которая выдает разные результаты при одном и том же сиде для ГПСЧ?
... << RSDN@Home 1.2.0 alpha 4 rev. 1110>>
'You may call it "nonsense" if you like, but I'VE heard nonsense, compared with which that would be as sensible as a dictionary!' (c) Lewis Carroll
Re: Несколько дурацких вопросов по теории информации
Здравствуйте, Voblin, Вы писали:
V>Может быть, "информация" — это целиком и полностью искусственное понятие, и рассуждать о его свойствах — это не многим лучше чем спорить о количестве демонов, помещающихся на кончике иглы? Однако, похоже, что сама суть понятия "информация" прошита куда-то вглубь структуры пространства-времени: V>1. Есть мнение, что скорость света в вакууме ограничена именно скоростью распространения информации. Если бы информация распространялась мгновенно, изменение электрического поля по известным уравнениям Максвелла мгновенно порождало бы изменение магнитного поля во всей Вселенной, и никаких электромагнитных волн не возникало бы в принципе.
Угу. Во всяком случае именно такую отмазку используют, чтобы как-то втиснуть парадокс Эйнштейна-Подольского-Розена в рамки теории относительности. Говорят, что, мол, изменяться всё изменяется _мгновенно_, но передать таким способом информацию невозможно, т.к. изменяется _случайно_.
Кстати, это _случайное_ изменение -- это порождение _новой_ информации. Только не спрашивай "информации о чём" Но, возможно, именно на этом основано, скажем, мышление?
V>1. Информация не существует сама по себе отдельно от своего носителя — вещества или энергии. Если это принять, то все паранаучные рассуждения об информационном поле, глобальном
информационном континууме и прочая муть сразу становятся ложными. Более того, фраза "В начале было Слово" сразу порождает еретический вопрос: "На чём было записано это Слово?".
А поле -- это вещество или энергия?
А пространство это что такое? А время? Так что "то, что было в начале", имхо, лучше пока не тревожить
V>P.S. Только попробуйте сказать, что это не имеет отношения к философии программирования!
Не имеет. Но кого это волнует?
Делай что должно, и будь что будет
Re[2]: Несколько дурацких вопросов по теории информации
Здравствуйте, SergH, Вы писали:
SH>Кстати, это _случайное_ изменение -- это порождение _новой_ информации. Только не спрашивай "информации о чём" Но, возможно, именно на этом основано, скажем, мышление?
Как правило, "случайное" изменение — это результат воздействия на объект шума, который является результатом суперпозиции такого количество информации, что никакой информации из него извлечь уже нельзя. Мышление же на этом не основано (Пенроуза уважаю, но в своих рассуждениях он многократно накосячил). Зачем нашему мозгу генератор случайных чисел (источник бесполезной недоинформации), если через органы чувств хлещет такой сумасшедший поток полезных (и не очень) данных, что только успевай анализировать и принимать решения?
V>>1. Информация не существует сама по себе отдельно от своего носителя — вещества или энергии. Если это принять, то все паранаучные рассуждения об информационном поле, глобальном информационном континууме и прочая муть сразу становятся ложными. Более того, фраза "В начале было Слово" сразу порождает еретический вопрос: "На чём было записано это Слово?".
SH>А поле -- это вещество или энергия? SH>А пространство это что такое? А время? Так что "то, что было в начале", имхо, лучше пока не тревожить
Если есть пример информационного объекта, существующего без носителя, ю а вэлкам.
Re[3]: Несколько дурацких вопросов по теории информации
Здравствуйте, Voblin, Вы писали:
V>Как правило, "случайное" изменение — это результат воздействия на объект шума, который является результатом суперпозиции такого количество информации, что никакой информации из него извлечь уже нельзя. Мышление же на этом не основано (Пенроуза уважаю, но в своих рассуждениях он многократно накосячил). Зачем нашему мозгу генератор случайных чисел (источник бесполезной недоинформации), если через органы чувств хлещет такой сумасшедший поток полезных (и не очень) данных, что только успевай анализировать и принимать решения?
Не, не, тут никакого шума. Почитай про ЭПР-парадокс.
Анализировать и принимать решения -- это модель поведения детерминированной реагирующей системы.
V>Если есть пример информационного объекта, существующего без носителя, ю а вэлкам.
Когда повторишь Большой Взрыв -- отпишись
Ок. Что такое "информационный объект"? Пока она у меня в мозгу -- кто там носитель? Не знаю. Информация _проявляется_ структурируя носитель. Чёрточки на бумажке или амплитуда сигнала, или колебания воздуха, ещё что-нибудь такое. Но это уже _высказанное_ слово. Ну, понятно, что записанное это не тоже самое, что было в голове, да? Асимметричный дуализм языкового знака, и т.п.?
Дальше, что является для него носителем -- ясен пень -- вселенная. Значит ли это, что к тому моменту вселенная уже была? Вообще-то нет, вселенная это уже результат структуризации. Да и словосочетание "тот момент" подразумевает время, которое тоже под сомнением.
"Вначале было Слово" это о том, что в момент сингулярности (если я правильно использую это слово) произошёл не случайный прорыв, а уже структурированный. И даже скорее о том, что он был результатом структуризации и является проявлением, развёртыванием Слова в физический мир.
Делай что должно, и будь что будет
Re[3]: Несколько дурацких вопросов по теории информации
Здравствуйте, Voblin, Вы писали:
V>Здравствуйте, Tilir, Вы писали:
T>>Мне кажется первое утверждение неверно по форме. Вот скажем горит на холме костёр что даёт информацию о том, что приближается вражеская конница. Не горит при этом не значит, что не приближается, может там дозорных убили и т.п. Но ту же информацию можно получить и без костра, а например самому с подзорной трубой. [...]
V>Горит => вражеская конница приближается. V>Не горит => нет "костровой" информации о том, приближается ли вражеская конница. Бери подзорную трубу.
Какой-то у нас с вами разный подход к информации. Для меня бит ноль это такая же информация как и бит один, а значит каждая точка во Вселенной бесконечно информационно ёмка -- она содержит сразу всю информацию о том чего там нет, то есть по сути информацию обо всей Вселенной.
Более того. Возьмём число pi. Которое 3.1415926... Надеюсь вы не будете спорить что в его полной записи в двоичном виде содержится ваша полная биография в формате txt, включая всё ваше прошлое и будущее. Вы просто не знаете с какого знака читать. И где тут материальный носитель на котором должна придти эта информация? Задумайтесь: всё ваше резюме можно отсылать работодателю просто как номер знака pi с которого оно начинается. И вся вот эта наша с вами дискуссия тоже там.
Re[4]: Несколько дурацких вопросов по теории информации
Здравствуйте, Tilir, Вы писали:
T>Более того. Возьмём число pi. Которое 3.1415926... Надеюсь вы не будете спорить что в его полной записи в двоичном виде содержится ваша полная биография в формате txt, включая всё ваше прошлое и будущее.
Это недоказанное предположение.
Однако не составляет труда придумать число, в котором эта информация содержится.
Re: Несколько дурацких вопросов по теории информации
Здравствуйте, nikov, Вы писали:
N>Здравствуйте, Voblin, Вы писали:
N>И я спрошу кое-что: создают ли математики информацию во время своей работы? Или может быть, они извлекают ее откуда-то? И где она была до этого?
Я бы ещё добавил: и отличаются ли они в смысле создания информации от физиков-теоретиков?
Re[6]: Несколько дурацких вопросов по теории информации
Здравствуйте, Klapaucius, Вы писали:
K>Ну это и будет псевдосамоорганизация в таком же точно смысле, в котором числа — псевдослучайные.
Почему "псевдо"? Самая настоящая самоорганизация! То, что вся система полностью детерминирована и сама на себя замкнута, знаем только мы, Боги-программисты и наш демонический компьютер. Для подсистем этой системы будет существовать внешний мир, с которым они обмениваются "веществом" и "энергией" (а на самом деле, всего лишь только информацией). И сидя под "солнцем", "живчики", населяющие наш искусственный мир, будут вести беседы о "будущем", строя какие-то смешные планы, помогать друг другу, обжуливать друг друга. А мы, подлые такие, скажем "kill process", и пойдём домой.
K>Система будет эволюционировать полностью детерминированно, точек бифуркации не будет. Никакой новой информации не появится.
Абсолютно согласен. Если мы в условиях задачи просили полностью детерминированную систему, то такую мы и получим. Если, конечно, закодим аккуратно. Никакой новой информации действительно не будет. Всё поведение системы описывается алгоритмом и набором начальных данных.
K>Попробуете написать программу, которая выдает разные результаты при одном и том же сиде для ГПСЧ?
Не буду даже пытаться
Re: Несколько дурацких вопросов по теории информации
Я когда-то увлекся темой сжатия данных (небезрезультатно) и довольно много времени вопросу информации посвятил, книжек прочел и дум передумал. Могу сказать, что Васильич тут дело говорит, советую прислушаться.
Информацию почти всегда можно считать синонимом негэнтропии, т.е. информация есть уменьшение неопределенности. Если мне сообщат, что президентом России последние несколько месяцев был некто Медведев, это сообщит мне ровно 0 бит информации, несмотря на то, что само сообщение может занимать кучу мегабайт (например, в виде записи ТВ сигнала). Именно поэтому информация кажется неаддитивной — если в двух файлах есть общая информация (например, что после q чащи идет u, а после tio — n), то в одном архиве они займут меньше места — для архиватора во втором файле меньше информации, чем если бы он сжимался отдельно, т.к. часть информации архиватор уже "знает" из первого файла.
Формула для энтропии неслучайно очень похоже выглядит в казалось бы разных областях — в теории информации, в квантах и в термодинамике. Она во всех этих случаях описывает меру нашего незнания о системе. И связь информации с вероятностями совершенно логична: вероятности используются для описания систем и событий, где мы не знаем точного состояния. Чем больше перекос вероятностей, тем больше знаний о системе у нас есть, тем меньше энтропия (в вырожденном случае, когда вероятность одного события 100%, а остальных — 0, энтропия равна 0, нет неопределенности).
В этом свете второй закон термодинамики совершенно очевиден — если с течением времени в системе происходят сложные (не известные нам с абсолютной точностью) процессы, степень нашего незнания о системе растет, т.е. растет энтропия.
Из занимательной литературы на эту тему есть как минимум Пенроуз и книжка "Динамика и информация" (забыл авторов). Рекомендую также курить кванты, описание квантовой энтропии и вопросов измерения (коллапс волновой функции, декогеренция и т.п.).
Re[7]: Несколько дурацких вопросов по теории информации
Здравствуйте, Voblin, Вы писали:
K>>Система будет эволюционировать полностью детерминированно, точек бифуркации не будет. Никакой новой информации не появится. V>Абсолютно согласен. Если мы в условиях задачи просили полностью детерминированную систему, то такую мы и получим. Если, конечно, закодим аккуратно. Никакой новой информации действительно не будет. Всё поведение системы описывается алгоритмом и набором начальных данных.
Протестую. Простой пример: пишем программу, которая ответит на вопрос "чему равно 10001-е по счету простое число?". Программа абсолютно детерминирована, и ответ казалось бы содержится в ее коде и данных, однако пока мы ее не запустим, он нам неизвестен. И когда программа выдаст ответ, это уменьшит наше незнание и определенно сообщит нам информацию. Конечно, при условии, что мы не знали ответ раньше.
Скажете, это не новая информация? Тогда, если подумать, новой информации вообще не существует, она вся "старая".
Re[2]: Несколько дурацких вопросов по теории информации
Здравствуйте, nikov, Вы писали:
N>И я спрошу кое-что: создают ли математики информацию во время своей работы? Или может быть, они извлекают ее откуда-то? И где она была до этого?
Насчёт больших серьёзных математиков ничего не скажу, но первоклашки, решая пример "2 зайчика + 3 белочки", информацию точно не создают. Хотя, производя вычисление на пальцах, наверняка думают, что извлекают её из этих самых пальцев.
Re[6]: Несколько дурацких вопросов по теории информации
Здравствуйте, Klapaucius, Вы писали:
K>Здравствуйте, Курилка, Вы писали:
K>>>Потому, что в механистическом мире для любого произвольно заданного времени t, получив полную информацию о состоянии системы мы знаем это состояние и для любого произвольного времени t'. Т.е. информации ни больше ни меньше не становится. С.м. "Демон Лапласа". К>>Только тут ты нарвёшься на парадокс Рассела (где ты будешь держать полную информацию о состоянии системы?), так что имхо "не катит".
K>Ну, это проблема, если демон лапласа работает внутри механистического мира. А на то, что количество информации не менятся это никак не влияет. Вот есть у нас n частиц, для которых мы знаем координаты и импульсы в момент t. Энергия только механическая, никакой диссипации. Это наш карманный механистический мирок на бумаге. Можно записать гамельтониан и сыграть в демона лапласа. Как тут информация от времени зависит?
Это будет уже не замкнутый мир, так что снова "не катит".
Re[4]: Несколько дурацких вопросов по теории информации
Здравствуйте, SergH, Вы писали:
SH>Не, не, тут никакого шума. Почитай про ЭПР-парадокс.
Прочитал. Не впечатлило. Требование наличия канала между А и Б пошатнулось, но устояло.
SH>Анализировать и принимать решения -- это модель поведения детерминированной реагирующей системы.
Ага.
SH>Когда повторишь Большой Взрыв -- отпишись
С ума сошёл???? Даже если маленький бабахну, меня менты повяжут!
А если серьёзно, то думаю, что для поисков природы информации не надо нам ходить к Большому Взрыву.
SH>Ок. Что такое "информационный объект"? Пока она у меня в мозгу -- кто там носитель? Не знаю.
Я тоже не знаю. Но, думаю, если суну голову под дорожный каток, информация сотрётся. Впрочем, у верующих людей другое мнение на этот счёт.
SH>Информация _проявляется_ структурируя носитель. Чёрточки на бумажке или амплитуда сигнала, или колебания воздуха, ещё что-нибудь такое. Но это уже _высказанное_ слово. Ну, понятно, что записанное это не тоже самое, что было в голове, да? Асимметричный дуализм языкового знака, и т.п.?
Информация — это не вещество и не энергия. Физические процессы, происходящие на квантовом уровне (или глубже, на уровне "струн", или ещё глубже) в своём течении порождают макромир. И везде, и в "макро", и в "микро", можно наблюдать структурирование. Его кто-то сознательно вылепливает? Да больно надо! Просто в состоянии устойчивого равновесия системы задерживаются на дольше, чем в состоянии неустойчивого. Просто Вселенная сложена не из круглых, и не из квадратных кирпичиков. Просто сложилось так, что согласно неумолимым математическим законам постоянно самообновляющаяся динамическая система, именуемая "Жизнь", оказалась устойчивее статичных гор и континентов.
Re[5]: Несколько дурацких вопросов по теории информации
Здравствуйте, Voblin, Вы писали:
SH>>Не, не, тут никакого шума. Почитай про ЭПР-парадокс.
V>Прочитал. Не впечатлило. Требование наличия канала между А и Б пошатнулось, но устояло.
Ну тут поинт в том, что либо это мгновенный канал, и тогда Эйнштейв вертится в гробу, либо это некая "истинная случайность". Вот истинная-истинная, никакой связи. Интересно, что время события они информацией не считают.
SH>>Анализировать и принимать решения -- это модель поведения детерминированной реагирующей системы. V>Ага.
Ну вот, а я предложил механизм недетерминированности.
V>А если серьёзно, то думаю, что для поисков природы информации не надо нам ходить к Большому Взрыву.
Слушай, ну ты же сам начал с "Вначале было Слово". Я бы в эти дебри ни за что не полез, это интересный, но очень-очень крайний случай. С тех пор ничего такого не было, насколько я знаю.
V>Я тоже не знаю. Но, думаю, если суну голову под дорожный каток, информация сотрётся. Впрочем, у верующих людей другое мнение на этот счёт.
Ну вот видишь.
Ты отождествляешь информацию с носителем потому что _информация_на_носителе_ это то, что можно передать другому. Потом ты понимаешь, что там где-то есть процесс интерпретации, который очень зависит от интерпретирующего субъекта. С той же полярной звездой. Или чёрточками на бумаге. Для меня это набор закорючек, а для китайца -- письмо. А для японца -- письмо, иероглифическое, но не японское. А я даже не могу сказать, точно ли это "письмо" хоть для кого-то. Может это для всех "набор закорючек".
И это мы не говорим о передаче, ха-ха, "смысла". Что вкладывал автор письма, что прочёл читатель? Ну и т.п. Одну и ту же информацию можно передать по-разному. И наоборот, одинаковые носители могут нести разную информацию. "Доктор сказал резать резать" -- помнишь такой анекдот?
V>Информация — это не вещество и не энергия. Физические процессы, происходящие на квантовом уровне (или глубже, на уровне "струн", или ещё глубже) в своём течении порождают макромир. И везде, и в "макро", и в "микро", можно наблюдать структурирование. Его кто-то сознательно вылепливает? Да больно надо! Просто в состоянии устойчивого равновесия системы задерживаются на дольше, чем в состоянии неустойчивого. Просто Вселенная сложена не из круглых, и не из квадратных кирпичиков. Просто сложилось так, что согласно неумолимым математическим законам постоянно самообновляющаяся динамическая система, именуемая "Жизнь", оказалась устойчивее статичных гор и континентов.
Ну, это пошла идеология, а не дискуссия об информации. Я же всего лишь объяснил тебе свою точку зрения на то, что означает фраза "Вначале было Слово".
Единственное, обращаю твоё внимание, что это именно _идеология_, т.е. доказательная база утверждения "просто сложилось", хм, сомнительна. Впрочем как и у других версий.
Делай что должно, и будь что будет
Re[8]: Несколько дурацких вопросов по теории информации
Здравствуйте, D. Mon, Вы писали:
DM>Протестую. Простой пример: пишем программу, которая ответит на вопрос "чему равно 10001-е по счету простое число?". Программа абсолютно детерминирована, и ответ казалось бы содержится в ее коде и данных, однако пока мы ее не запустим, он нам неизвестен. И когда программа выдаст ответ, это уменьшит наше незнание и определенно сообщит нам информацию. Конечно, при условии, что мы не знали ответ раньше.
Программа скопирует число, уже содержащееся в исходных данных, в наш мозг.
DM>Скажете, это не новая информация? Тогда, если подумать, новой информации вообще не существует, она вся "старая".
Вынужден огорчить, но она вся старая. Допустим, я использовал это число как пароль для защиты файла. Передаю другу файл и говорю ему пароль: "10001-е по счету простое число". Всё, друг сможет прочитать файл потому что пароль я ему сообщил. Немножко садистским образом, но всё же сообщил.
Re[6]: Несколько дурацких вопросов по теории информации