Своими словами что такое информация – Информация — Википедия

Информация что это? Значение слова Информация

Значение слова Информация по Ефремовой:

Информация — 1. Сообщение о положении дел где-л., о состоянии чего-л.
2. Сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальными устройствами. // Обмен такими сведениями между людьми и специальными устройствами. // Обмен сигналами в животном и растительном мире.
3. То же, что: информирование.

Значение слова Информация по Ожегову:

Информация — Сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройством Spec


Информация Сообщения, осведомляющие о положении дел, о состоянии чего-нибудь

Информация в Энциклопедическом словаре:

Информация — (от лат. informatio — разъяснение — изложение), первоначальная- сведения, передаваемые людьми устным, письменным или другим способом (спомощью условных сигналов, технических средств и т. д.). с сер. 20 в.общенаучное понятие, включающее обмен сведениями между людьми, человеком иавтоматом, автоматом и автоматом. обмен сигналами в животном ирастительном мире. передачу признаков от клетки к клетке, от организма корганизму (см. Генетическая информация). одно из основных понятийкибернетики.

Значение слова Информация по Бизнес словарю:

Информация — А. Значение, приписываемое данным на основе известных соглашений, относящихся к их представлению.
Б. Сведения, данные, значения экономических показателей, являющиеся объектами хранения, обработки и передачи.
В. Одна из трех фундаментальных субстанций (вещество, энергия, информация), составляющих сущность мироздания и охватывающих любой продукт мыслительной деятельности, прежде всего знания и образы.

Значение слова Информация по словарю Ушакова:

ИНФОРМАЦИЯ
информации, ж. (книжн., офиц.). 1. только ед. Действие по глаг. информировать. Информация поставлена на должную высоту. 2. Сообщение, осведомляющее о положении дел или о чьей-н. деятельности, сведения о чем-н. Давать информацию. Газетная информация. Неверная информация.

Определение слова «Информация» по БСЭ:

Информация (от лат. informatio — разъяснение, изложение)

первоначально — сведения, передаваемые одними людьми другим людям устным, письменным или каким-либо другим способом (например, с помощью условных сигналов, с использованием технических средств и т. д.), а также сам процесс передачи или получения этих сведений. И. всегда играла в жизни человечества очень важную роль. Однако в середины 20 в. в результате социального прогресса и бурного развития науки и техники роль И. неизмеримо возросла. Кроме того, происходит лавинообразное нарастание массы разнообразной И., получившее название «информационного взрыва».
В связи с этим возникла потребность в научном подходе к И., выявлении её наиболее характерных свойств, что привело к двум принципиальным изменениям в трактовке понятия И. Во-первых, оно было расширено и включило обмен сведениями не только между человеком и человеком, но также между человеком и автоматом, автоматом и автоматом. обмен сигналами в животном и растительном мире. Передачу признаков от клетки к клетке и от организма к организму также стали рассматривать как передачу И. (см. Генетическая информация, Кибернетика биологическая). Во-вторых, была предложена количественная мера И. (работы К. Шеннона, А. Н. Колмогорова и др.), что привело к созданию информации теории.
Более общий, чем прежде, подход к понятию И., а также появление точной количественной меры И. пробудили огромный интерес к изучению И. С начала 1950-х гг. предпринимаются попытки использовать понятие И. (не имеющее пока единого определения) для объяснения и описания самых разнообразных явлений и процессов.
Исследование проблем, связанных с научным понятием И., идёт в трёх основных направлениях. Первое из них состоит в разработке математического аппарата, отражающего основные свойства И. (см. Информация в кибернетике).
Второе направление заключается в теоретической разработке различных аспектов И. на базе уже имеющихся математических средств, в исследовании различных свойств И. Например, уже с момента создания теории И. возникла сложная проблема измерения ценности, полезности И. с точки зрения её использования. В большинстве работ по теории И. это свойство не учитывается. Однако важность его несомненна. В количественной теории, выдвинутой в 1960 А. А. Харкевичем, ценность И. определяется как приращение вероятности достижения данной цели в результате использования данной И. Близкие по смыслу работы связаны с попытками дать строгое математическое определение количества семантической (т. е. смысловой) И. (Р. Карнап и др.).
Третье направление связано с использованием информационных методов в лингвистике, биологии, психологии, социологии, педагогике и др. В лингвистике, например, проводилось измерение информативной ёмкости языков. После статистической обработки большого числа текстов, выполненной с помощью ЭВМ, а также сопоставления длин переводов одного и того же текста на разные языки и многочисленных экспериментов по угадыванию букв текста выяснилось, что при равномерной нагрузке речевых единиц информацией тексты могли бы укоротиться в 4-5 раз. Так был с этой точки зрения установлен факт избыточности естественных языков и довольно точно измерена её величина, находящаяся в этих языках примерно на одном уровне. В нейрофизиологии информационные методы помогли лучше понять механизм действия основного закона психофизики — закона Вебера — Фехнера, который утверждает, что ощущение пропорционально логарифму возбуждения. Именно такая зависимость должна иметь место в случае, если нервные волокна, передающие сигналы от акцепторов к мозгу, обладают свойствами, присущими идеализированному каналу связи, фигурирующему в теории И. Значительную роль информационный подход сыграл в генетике и молекулярной биологии, позволив, в частности, глубже осознать роль молекул РНК как переносчиков И. Ведутся также исследования по применению информационных методов в искусствоведении.
Такое разнообразное использование понятия И. побудило некоторых учёных придать ему общенаучное значение. Основоположниками такого общего подхода к понятию И. были английский нейрофизиолог У. Р. Эшби и французский физик Л. Бриллюэн. Они исследовали вопросы общности понятия энтропии в теории И. и термодинамике, трактуя И. как отрицательную энтропию (негэнтропию). Бриллюэн и его последователи стали изучать информационные процессы под углом зрения второго начала термодинамики, рассматривая передачу И. некоторой системе как усовершенствование этой системы, ведущее к уменьшению её энтропии. В некоторых философских работах был выдвинут тезис о том, что И. является одним из основных универсальных свойств материи. Положительная сторона этого подхода состоит в том, что он связывает понятие И. с понятием отражения. См. также ст. Информатика, Информация общественно-политическая, Массовая коммуникация.
Лит.: Эшби У. Р., Введение в кибернетику, пер. с англ., М., 1959. Харкевич А. А., О ценности информации, в сборнике: Проблемы кибернетики, в. 4, М., 1960. Шеннон К. Э., Работы по теории информации и кибернетике, пер. с англ., М., 1963. Колмогоров А. Н., Три подхода к определению понятия
«количество информации», «Проблемы передачи информации», 1965, т. 1, в. 1. Бриллюэн Л., Научная неопределённость и информация, пер. с англ., М., 1966. Урсул А. Д., Информация, М., 1971.
В. Н. Тростников.


Информация — общественно-политическая, совокупность сообщений об актуальных новостях внутренней и международной жизни, распространяемых средствами массовой коммуникации и ориентирующих аудиторию в фактах, явлениях, процессах политической, экономической, научной, культурной и пр. жизни общества. В социалистическом обществе к И. предъявляются требования правдивости и точности изложения правильно отобранных и сгруппированных типических фактов, объективного анализа и комментирования событий и процессов социальной жизни на основе марксистско-ленинской методологии в соответствии с принципом партийности. Коммунистическая партия придаёт важное значение проблеме информированности масс трудящихся с целью их сознательного и активного участия в общественной жизни, а также поступлению фактической и оценочной И. от самих трудящихся о положении дел во всех сферах народного хозяйства и культуры, о мнениях по различным общественным вопросам. эта
«обратная» И. используется для принятия решений на различных уровнях социального управления.
Буржуазная пропаганда, стремясь ориентировать массы в своих целях, широко использует методы дезинформации, необъективно излагая факты и сущность событий, замалчивая важные сведения, делая упор на сенсационные сообщения о малозначимых событиях.
В журналистике главными формами оперативной передачи И. являются информационные жанры публицистики — хроника, заметки, репортажи, отчёты, интервью, обзоры.
Лит.: Бровиков В. И., Попович И. В., Современные проблемы политической информации и агитации, М., 1969.
Информация — в кибернетике. Естественнонаучное понимание И. основано на двух определениях этого понятия, предназначенных для различных целей (для информации теории, иначе называемой статистической теорией связи, и теории статистических оценок). К ним можно присоединить и третье (находящееся в стадии изучения), связанное с понятием сложности алгоритмов.
Центральное положение понятия И. в кибернетике объясняется тем, что кибернетика (ограничивая и уточняя интуитивное представление об И.) изучает машины и живые организмы с точки зрения их способности воспринимать определённую И., сохранять её в
«памяти», передавать по «каналам связи» и перерабатывать её в «сигналы», направляющие их деятельность в соответствующую сторону.
В некоторых случаях возможность сравнения различных групп данных по содержащейся в них И. столь же естественна, как возможность сравнения плоских фигур по их «площади». независимо от способа измерения площадей можно сказать, что фигура A имеет не большую площадь, чем B, если A может быть целиком помещена в В (сравни примеры 1-3 ниже). Более глубокий факт — возможность выразить площадь числом и на этой основе сравнить между собой фигуры произвольной формы — является результатом развитой математической теории. Подобно этому, фундаментальным результатом теории И. является утверждение о том, что в определённых весьма широких условиях можно пренебречь качественными особенностями И. и выразить её количество числом. Только этим числом определяются возможности передачи И. по каналам связи и её хранения в запоминающих устройствах.
Пример 1. В классической механике знание положения и скорости частицы, движущейся в силовом поле, в данный момент времени даёт И. о её положении в любой будущий момент времени, притом полную в том смысле, что это положение может быть предсказано точно. Знание энергии частицы даёт И., но, очевидно, неполную.
Пример 2. Равенство
a = b&emsp.&emsp.&emsp. (1)
даёт И. относительно вещественных переменных a и b. Равенство
a2 = b2&emsp.&emsp.&emsp. (2)
даёт меньшую И. [так как из (1) следует (2), но эти равенства не равносильны]. Наконец, равенство
a3 = b3&emsp.&emsp.&emsp. (3)
равносильное (1), даёт ту же И., то есть (1) и (3) — это различные формы задания одной и той же И.
Пример 3. Результаты произведённых с ошибками независимых измерений какой-либо физической величины дают И. о её точном значении. Увеличение числа наблюдений увеличивает эту И.
Пример 3 а. Среднее арифметическое результатов наблюдений также содержит некоторую И. относительно рассматриваемой величины. Как показывает математическая статистика, в случае нормального распределения вероятностей ошибок с известной дисперсией среднее арифметическое содержит всю И.
Пример 4. Пусть результатом некоторого измерения является случайная величина X. При передаче по некоторому каналу связи X искажается, в результате чего на приёмном конце получают величину Y = X + &theta., где &theta. не зависит от X (в смысле теории вероятностей). «Выход» Y даёт И. о «входе» X. причём естественно ожидать, что эта И. тем меньше, чем больше дисперсия случайной ошибки &theta..
В каждом из приведённых примеров данные сравнивались по большей или меньшей полноте содержащейся в них И. В примерах 1-3 смысл такого сравнения ясен и сводится к анализу равносильности или неравносильности некоторых соотношений. В примерах 3 а и 4 этот смысл требует уточнения. Это уточнение даётся, соответственно, математической статистикой и теорией И. (для которых эти примеры являются типичными).
В основе теории информации лежит предложенный в 1948 американским учёным К. Шенноном способ измерения количества И., содержащейся в одном случайном объекте (событии, величине, функции и т. п.) относительно другого случайного объекта. Этот способ приводит к выражению количества И. числом. Положение можно лучше объяснить в простейшей обстановке, когда рассматриваемые случайные объекты являются случайными величинами, принимающими лишь конечное число значений. Пусть X — случайная величина, принимающая значения x1, x2,…, xn с вероятностями p1, p2,…, pn, а Y — случайная величина, принимающая значения y1, y2,…, ym с вероятностями q1, q2,…, qm. Тогда И. I (X,Y) относительно Y, содержащаяся в X, определяется формулой

I(X,Y) = 
&sum.
i,j
pij log2(pij
piqj
),&emsp.&emsp.&emsp. (4)

где pij — вероятность совмещения событий X = xi и Y = yj и логарифмы берутся по основанию 2. И. I (X, Y) обладает рядом свойств, которые естественно требовать от меры количества И. Так, всегда I(X, Y) &ge. 0 и равенство I(X, Y) = 0 возможно тогда и только тогда, когда pij = piqj при всех i и j, т. е. когда случайные величины X и Y независимы. Далее, всегда I(X, Y) &le. I (Y, Y) и равенство возможно только в случае, когда Y есть функция от X (например, Y = XІ и т. д.).
Кроме того, имеет место равенство I (X, Y) = I (Y, X).
Величина

H(X) = I(X,X) =&sum.pi log2(1
pi
)

носит название энтропии случайной величины X. Понятие энтропии относится к числу основных понятий теории И. Количество И. и энтропия связаны соотношением
I (X, Y) = H (X) + H(Y) &minus. H(X, Y),&emsp.&emsp.&emsp. (5)
где H (X, Y) — энтропия пары (X, Y), т. е.

H(X,Y) = 
&sum.
i,j
log2(1
pij
).

Величина энтропии указывает среднее число двоичных знаков (см. Двоичные единицы), необходимое для различения (или записи) возможных значений случайной величины (подробнее см. Кодирование, Энтропия). Это обстоятельство позволяет понять роль количества И. (4) при
«хранении» И. в запоминающих устройствах. Если случайные величины X и Y независимы, то для записи значения X требуется в среднем H (X) двоичных знаков, для значения Y требуется H (Y) двоичных знаков, а для пары (X, Y) требуется Н (Х) + H (Y) двоичных знаков. Если же случайные величины X и Y зависимы, то среднее число двоичных знаков, необходимое для записи пары (X, Y), оказывается меньшим суммы Н (Х) + H (Y), так как
H(X, Y) = H(X) + H(Y) &minus. I(X, Y).
С помощью значительно более глубоких теорем выясняется роль количества И. (4) в вопросах передачи И. по каналам связи. Основная информационная характеристика каналов, так называемая пропускная способность (или ёмкость), определяется через понятие
«И.» (подробнее см. Канал).
Если X и Y имеют совместную плотность p(x, y), то

I(X,Y) =&int.&int.p(x,y) log2(p(x,y)
p(x)q(y)
dx dy,&emsp.&emsp.&emsp. (6)

где буквами p и q обозначены плотности вероятности X и Y соответственно. При этом энтропии Н (X) и Н (Y) не существуют, но имеет место формула, аналогичная (5),
I(X, Y) = h(X) + h(Y) &minus. h(X, Y),&emsp.&emsp.&emsp. (7)
где

h(X) =&int.p(x) log21
p(x)
dx

дифференциальная энтропия X [h(Y) и h(X, Y) определяется подобным же образом].
Пример 5. Пусть в условиях примера 4 случайные величины X и &theta. имеют нормальное распределение вероятностей с нулевыми средними значениями и дисперсиями, равными соответственно &sigma.Іх и &sigma.І &theta..
Тогда, как можно подсчитать по формулам (6) или (7):

I(Y,X) = I(X,Y) =1
2
log2[1+&sigma.Іx
&sigma.Іy
].

Таким образом, количество И. в «принятом сигнале» Y относительно «переданного сигнала» X стремится к нулю при возрастании уровня «помех» &theta. (т. е. при &sigma.І&theta. &rarr. &infin.) и неограниченно возрастает при исчезающе малом влиянии «помех» (т. е. при &sigma.І&theta. &rarr. 0).
Особенный интерес для теории связи представляет случай, когда в обстановке примеров 4 и 5 случайные величины X и Y заменяются случайными функциями (или, как говорят, случайными процессами) X (t) и Y (t), которые описывают изменение некоторой величины на входе и на выходе передающего устройства. Количество И. в Y (t) относительно X (t) при заданном уровне помех («шумов», по акустической терминологии) &theta.(t) может служить критерием качества самого этого устройства (см. Сигнал, Шеннона теорема).
В задачах математической статистики также пользуются понятием И. (сравни примеры 3 и 3а). Однако как по своему формальному определению, так и по своему назначению оно отличается от вышеприведённого (из теории И.). Статистика имеет дело с большим числом результатов наблюдений и заменяет обычно их полное перечисление указанием некоторых сводных характеристик. Иногда при такой замене происходит потеря И., но при некоторых условиях сводные характеристики содержат всю И., содержащуюся в полных данных (разъяснение смысла этого высказывания даётся в конце примера 6). Понятие И. в статистике было введено английским статистиком Р. Фишером в 1921.
Пример 6. Пусть X1, X2, …, Xn, — результаты n независимых наблюдений некоторой величины, распределённые по нормальному закону с плотностью вероятности

p(x. a, &sigma.І) =1 

exp[&minus.(x&minus.a)І
2&sigma.І
],

где параметры a и &sigma.І (среднее и дисперсия) неизвестны и должны быть оценены по результатам наблюдений. Достаточными статистиками (т. е. функциями от результатов наблюдении, содержащими всю И. о неизвестных параметрах) в этом примере являются среднее арифметическое

X&#x305. =1
n
n
&Sigma.
i=1
Xi

и так называемая эмпирическая дисперсия

s2 =1
n
n
&Sigma.
i=1
(Xi &minus. X)2.

Если параметр &sigma.І известен, то достаточной статистикой будет только X (сравни пример 3 а выше).
Смысл выражения «вся И.» может быть пояснён следующим образом. Пусть имеется какая-либо функция неизвестных параметров &phi. = &phi. (a, &sigma.І) и пусть
&phi.* = &phi.*(X1, X2, …, Xn)
— какая-либо её оценка, лишённая систематической ошибки. Пусть качество оценки (её точность) измеряется (как это обычно делается в задачах математической статистики) дисперсией разности &phi.* — &phi.. Тогда существует другая оценка &phi.**, зависящая не от отдельных величин Xi, а только от сводных характеристик X и sІ, не худшая (в смысле упомянутого критерия), чем &phi.*. Р. Фишером была предложена также мера (среднего) количества И. относительно неизвестного параметра, содержащейся в одном наблюдении. Смысл этого понятия раскрывается в теории статистических оценок.
Лит.: Крамер Г., Математические методы статистики, пер. с англ., М., 1948. Ван-дер-Варден Б. Л., Математическая статистика, пер. с нем., М., 1960. Кульбак С., Теория информации и статистика, пер. с англ., М., 1967.
Ю. В. Прохоров.

xn—-7sbbh7akdldfh0ai3n.xn--p1ai

Что такое информация?

<<Назад  |  Содержание  |  Далее>>

 

 

Попробуйте ответить на простой, казалось бы, вопрос: что такое информация? Вы пользуетесь этим термином постоянно: работаете с информацией,  ищете информацию, воспринимаете информацию, действуете под управлением информации. Задумайтесь на минуту и попытайтесь ответить: Информация – это… 

Что у вас получилось? Самые популярные в такой ситуации ответы: “Это что-то новое”, “Это сообщения, сведения”, “Это знания”, “Это данные”…

Слово “information” действительно переводится с латинского языка, как “осведомление”, “разъяснение”, и такое определение устраивало человечество до сороковых годов двадцатого века.

Этим термином пользовались для определения чисто практических понятий, таких, как некоторая совокупность знаний, сведений о конкретном предмете, явлении, событии. Такая информация носит вполне конкретный характер и во многих случаях не несёт в себе количественной оценки.

Тысячелетиями слово “информация” было рядовым, ничем не выделяющимся среди десятков тысяч других слов. Все это долгое время человек считал себя единственным созданием, способным к передаче, приему и творению информации.

Положение стало меняться с появлением кибернетики – науки об управлении. «Кибернетика» Норберта Винера увидела свет в 1948 году. Она открыла людям глаза на то, что сейчас известно каждому – информационные процессы происходят в любом живом организме, начиная с амебы и вируса. Созданные человеком машины также работаю под управлением информации. Любое сообщество живых существ – муравьев, пчел, рыб, птиц и, конечно, людей не может существовать без потоков информации, циркулирующих в нем.

Датой рождения “Теории информации” также считается 1948 год. Именно тогда в реферативном журнале американской телефонной компании «Белл систем» появилась статья 32-летнего инженера-связиста Клода Шеннона «Математическая теория связи”, в которой он предложил способ измерения количества информации. С этого момента понятие «информация» начинает расширять сферу своего применения.

Вскрытие единства процессов в живом и неживом, широкое внедрение ЭВМ, стремительное нарастание информационного потока в виде газет, журналов, книг, теле- и радиотрансляций придало совершенно другое, новое значение слову “информация”. На современном этапе развития науки признано, что понятие «информация» значительно более ёмкое и, что очень важно, существует и вне нашего восприятия. Другими словами, весь окружающий нас мир, как доступный, так и недоступный нам, всюду имеет информационную структуру.

“Информация” превратилась в необычайно широкое понятие и встала в один ряд с такими философскими категориями, как материя, энергия, пространство и время. Однако единого общепризнанного определения информации не существует до сих пор, более того, это понятие остается одним их самых дискуссионных в современной науке. Все мы имеем представление о том, что такое материя, энергия, пространство, время, информация, мы можем описать их свойства, мы можем их измерять, но мы так и не можем пока дать их четкого научного определения.

 

 

Давайте познакомимся с определениями информации, данными выдающимися учеными:

—       Информация – это обозначение содержания, полученного от внешнего мира в процессе приспособления к нему (Н. Винер).

—       Информация – отрицательная энтропия (негэнтропия) (Л. Бриллюэн).

—       Информация – вероятность выбора (А. М. Яглом, И. М. Яглом).

—       Информация – снятая неопределенность (К. Шеннон).

—       Информация – мера сложности структур, мера упорядоченности материальных систем (А. Моль).

—       Информация  — снятая неразличимость, передача разнообразия (У.Р. Эшби).

—       Информация – отраженное разнообразие (А. Д. Урсул).

—       Информация – мера неоднородности распределения материи и энергии в пространстве и времени (В. М. Глушков).

Чтобы быть понятым, этот небольшой обзор определений нуждается в дополнительных пояснениях, и мы постараемся дать их в ходе дальнейшего изложения этого и следующего раздела. Дочитав третий раздел этой книги, вернитесь, и заново перечитайте этот список.

 

 

<<Назад  |  Содержание  |  Далее>>

inf5.ru

Какой бывает ИНФОРМАЦИЯ — Карта слов и выражений русского языка

Делаем Карту слов лучше вместе

Привет! Меня зовут Лампобот, я компьютерная программа, которая помогает делать Карту слов. Я отлично умею считать, но пока плохо понимаю, как устроен ваш мир. Помоги мне разобраться!

Спасибо! Когда-нибудь я тоже научусь различать смыслы слов.

В каком смысле употребляется прилагательное злой в отрывке:

Вскоре мне начинает казаться, что меня похитил злой волшебник и ведёт меня в своё подземелье.

В прямом
смысле

В переносном
смысле

Это устойчивое
выражение

Это другое
прилагательное

Предложения со словом «информация»:

  • Я не думаю, что сейчас для оппозиции улучшится доступ к средствам массовой информации.
  • Теперь будет невозможно получить дополнительную информацию от этой девушки, не выложив ей, что именно он ищет.
  • Сегодня об их пользе пишут в самых разных источниках информации, дают рекомендации по потреблению, рассказывают о пользе этих веществ.
  • (все предложения)

Оставить комментарий

Текст комментария:

Электронная почта:

Дополнительно:

kartaslov.ru

Слово ИНФОРМАЦИЯ — Что такое ИНФОРМАЦИЯ?

Слово информация английскими буквами(транслитом) — informatsiya

Слово информация состоит из 10 букв: а и и м н о р ф ц я


Значения слова информация. Что такое информация?

Информация

ИНФОРМАЦИЯ (informatio — ознакомление, представление — лат.) 1) любые сведения, данные, сообщения, передаваемые посредством сигналов; 2) уменьшение неопределенности в результате передачи сведений, данных…

Энциклопедия культурологии

Информация [information] — основное понятие кибернетики, точно так же экономическая И. — основное понятие экономической кибернетики. Определений этого термина много, они сложны и противоречивы.

slovar-lopatnikov.ru

ИНФОРМАЦИЯ (informatio — ознакомление, представление — лат.) 1) любые сведения, данные, сообщения, передаваемые посредством сигналов; 2) уменьшение неопределенности в результате передачи сведений, данных…

Энциклопедия культурологии

Социальная информация

Социальная информация — совокупность знаний, сведений, данных и сообщений, которые формируются и воспроизводятся в обществе и используются индивидами, группами, организациями…

ru.wikipedia.org

Социальная информация Социальная информация — совокупность знаний, сведений, данных и сообщений, которые формируются и воспроизводятся в обществе и используются индивидами, группами, организациями…

Словарь финансовых терминов

Социальная информация — совокупность знаний, сведений, данных и сообщений, которые формируются и воспроизводятся в обществе и используются индивидами, группами, организациями…

Словарь финансовых терминов

Генетическая информация

Генети́ческая информа́ция — информация о строении белков, закодированная с помощью последовательности нуклеотидов — генетического кода — в генах (особых функциональных участках молекул ДНК или РНК).

ru.wikipedia.org

Генетическая информация — программа свойств организма, получаемая от предков и заложенная в наследственных структурах в виде генетического кода. Генетическая информация определяет морфологическое строение, рост, развитие, обмен веществ…

glossary.ru

Генетическая информация, заложенная в наследственных структурах организмов (в хромосомах, цитоплазме, клеточных органеллах), получаемая от предков в виде совокупности генов информация о составе…

БСЭ. — 1969—1978

Инсайдерская информация

Инсайдерская информация — (англ. Insider information) — несущественная публично раскрытая служебная информация компании, которая в случае её раскрытия способна повлиять на рыночную стоимость ценных бумаг компании.

ru.wikipedia.org

Инсайдерская информация – служебная информация о компании, обнародование которой способно оказать существенное влияние на рынок ценных бумаг. Примерами инсайдерской информации могут служить годовой доход компании до его официального обнародования…

Словарь банковских терминов и экономических понятий

Инсайдерская информация (Insiders information) – существенная (внутренняя) информация о деятельности организации (компании и т.п.), об акциях и других ценных бумагах организации и сделках с ними…

slovar-lopatnikov.ru

Асимметричная информация

АСИММЕТРИЧНАЯ ИНФОРМАЦИЯ (asymmetric information) Ситуация, когда не все экономические агенты располагают одинаковой информацией (information). Естественно, подобная ситуация в реальной экономике является обычной.

Райзберг Б.А. Современный экономический словарь. — 1999

АСИММЕТРИЧНАЯ ИНФОРМАЦИЯ (asymmetric information) Ситуация, когда не все экономические агенты располагают одинаковой информацией (information). Естественно, подобная ситуация в реальной экономике является обычной.

Райзберг Б.А. Современный экономический словарь. — 1999

АСИММЕТРИЧНАЯ ИНФОРМАЦИЯ [asymmetric information] — в условиях рынка информация об объекте рыночного обмена, которой участники этого обмена располагают в неодинаковой степени.

Лопатников. — 2003

Носитель информации

Носи́тель информа́ции (информацио́нный носи́тель) — любой материальный объект или среда[неизвестный термин] , содержащий (несущий) информацию (И), способный достаточно длительное время сохранять в своей структуре занесённую в/на него информацию —…

ru.wikipedia.org

Носитель информации машинный, носитель записи, тело, вещество, используемое для записи и накопления информации с целью непосредственного ввода её в ЭВМ.

БСЭ. — 1969—1978

НОСИТЕЛИ ИНФОРМАЦИИ — материальный объект, предназначенный для записи, передачи и хранения информации. Н.и. по физическому принципу делятся на носители со стирающейся записью и нестирающейся записью.

Большой бухгалтерский словарь

Раскрытие информации

РАСКРЫТИЕ ИНФОРМАЦИИ (англ. disclosure) – обеспечение доступности информации об эмитенте ценных бумаг всем заинтересованным в этом лицам независимо от целей ее получения по процедуре, гарантирующей ее нахождение и получение.

Финансово-кредитный энциклопедический словарь / Под общ. ред. А.Г. Грязновой. — 2004

Раскры́тие информа́ции (англ. Information disclosure)(на рынке ценных бумаг) — система осуществляемых эмитентами мероприятий, направленных на информирование акционеров…

ru.wikipedia.org

Раскрытие информации — в РФ — обеспечение доступности информации всем заинтересованным в этом лицам независимо от целей получения данной информации по процедуре, гарантирующей ее нахождение и получение.

Словарь финансовых терминов

Русский язык

Экспре́сс-информа́ция, -и.

Орфографический словарь. — 2004

Свобода информации

Свобода информации — понятие, используемое для обозначения группы прав и свобод, включая свободу выражения убеждений (свобода слова), свободное функционирование средств массовой информации (свобода печати)…

ru.wikipedia.org

ПРАВО НА ИНФОРМАЦИЮ — гарантированная Конституцией РФ возможность граждан получать достоверные сведения о деятельности государственных органов и организаций, общественных объединений и должностных лиц.

Конституционное право РФ. — 2002

ПРАВО НА ИНФОРМАЦИЮ — право граждан, закрепленное в ч. 3, 4 ст. 29 Конституции РФ. Суть этого права заключается в том, что каждый имеет право свободно искать, получать, передавать, производить и распространять информацию любым законным способом.

Энциклопедический словарь конституционного права «Норма». — 2000

Средство массовой информации

Сре́дства ма́ссовой информа́ции (СМИ), масс-медиа — периодические печатные издания, радио-, теле- и видеопрограммы[неизвестный термин], кинохроникальные программы…

ru.wikipedia.org

Средства массовой информации — результат интеллектуальной деятельности, имеющий форму периодического распространения информации. Массовая информация — разновидность информации. Средства массовой информации…

Большой юридический словарь. — М., 2009

СРЕДСТВА МАССОВОЙ ИНФОРМАЦИИ (СМИ) периодические печатные издания, радио-, теле- и видеопрограммы, кинохроникальные программы, иные формы распространения массовой информации (Закон РФ от 27 декабря 1991 г. № 2124-1 «О средствах массовой информации»).

Энциклопедия юриста. — 2005

Теория информации

ТЕО́РИЯ ИНФОРМА́ЦИИ — теория, изучающая законы и способы измерения, преобразования, передачи, использования и хранения информации. В Т. и. и ее технич. приложениях центральными являются понятия количества информации и его меры.

Философская энциклопедия

ИНФОРМАЦИИ ТЕОРИЯ – раздел математики, исследующий процессы хранения, преобразования и передачи информации. В основе его лежит определенный способ измерения количества информации.

Энциклопедия Кругосвет

ИНФОРМАЦИИ ТЕОРИЯ — раздел прикладной математики и кибернетики, связанный с математич. описанием и оценкой качества передачи, хранения, извлечения и классификации информации.

Математическая энциклопедия. — 1977-1985

Примеры употребления слова информация

Эксперты тогда отметили, что эта информация, скорее всего, не случайно попала в сеть.

А то сразу эта информация появляется у людей, занимающихся ставками, и так далее.

Оказывается, что информация о детях, усыновление которых заморожено, абсолютно закрыта!

Но когда стали разыскивать этих детей, оказалось, что информация о них закрыта.

Позднее появилась информация, что защитник продолжит карьеру в «Питтсбурге».

Кроме того, информация отображается в интернете на сайте parking.mos.ru, а также в мобильном приложении.

Напомним, вчера в ряде СМИ появилась информация об интересе ЦСКА к Фридзону.

При этом на официальном сайте «Челси» информация о назначении португальца пока не подтверждается.

Ранее проходила информация, что Фридзон пополнит состав московского ЦСКА.

Сегодня утром на сайте лиги появилась официальная информация о том, что Моуринью уже согласовал контракт со своим бывшим клубом.


  1. информатор
  2. информационность
  3. информационный
  4. информация
  5. информбюро
  6. информель
  7. информировавший

wordhelp.ru

Понятие информации

Информация в общепринятом определении — это сведения, сообщения, передаваемые от одного субъекта другому устным, письменным или каким-либо другим способом (например, с помощью условных сигналов, с использованием технических средств и т.д.), а также сам процесс передачи или получения этих сведений или информационный обмен.

Информация для каждого человека является источником энергии. Важно то, как человек ею пользуется.

Другое же, обобщающее определение информации как универсального свойства материи, менее известно. Информация — это
нематериальная категория Вселенной, закодированная в материальных носителях и при раскодировании и адекватной реактивности отрицающая вероятность в статистических процессах перехода от неупорядоченности к порядку; или, как принято говорить в физике, информация — это энтропия с обратным знаком, или отрицательная энтропия.

Однако как нематериальная категория информация с разрушением носителя или исчезает, или перекодируется. Новая информация возникает только в случайных процессах создания нового носителя. Случайный процесс — это совокупность случайных событий, вероятность которых чрезвычайно мала, и чем меньше вероятность создания нового носителя, тем выше качество воспроизведенной информации. С такими процессами работает Естественный Отбор.

Отбор непротиворечивых аргументов или синтез — всего лишь сведения, сообщения, временная совокупность знаний субъекта (субъектов). Временная в смысле пожизненная. С разрушением носителя исчезает вся информация — как возникшая при рождении, так и приобретенная в онтогенезе. Вновь возникшая родительская информация может быть сохранена только с рождением нового носителя.

Способы передачи информации.

Чем больше объем совокупных знаний субъекта, приобретенных в онтогенезе (временных), тем больше возникает у него точек соприкосновения с неизвестным, тем шире ассоциативное поле воображения, тем глубже эмоциональный накал, тем выше вероятность декодирования объективной информации с обследуемого носителя.  Отсюда очевидно, что на данном этапе развития социума доступ к объективной информации, или, точнее, информации об объективной реальности, для нас весьма ограничен. Таким образом, можно говорить об информации и Информации как о двух взаимовложенных понятиях.

Энтропия — это глубоко конкретная физическая величина с размерностью кал/град, которая всегда больше нуля, т.е. положительна, что физически понимается как закон перехода тепла от более горячего тела к холодному. Но, как и для понятия «информация»,  термином энтропия определяется еще одно понятие, а именно — выражение её через связь со статистической концепцией перехода от неупорядоченности к порядку, что так же мало изучено, как и понятие «информация», хотя и выражается простейшей количественной связью, открытой еще Больцманом и Гиббсом в 1872 г.:

Энтропия=k·lgD, где:

  • D и есть количественный показатель этой неупорядоченности атомно-молекулярного движения в веществе;
  • а k – постоянная Больцмана = 1,3807×10-23 Дж/К.

Виды информации.

Исходя из определения понятия Информации как энтропии с обратным знаком, очевидно, существуют во Вселенной неуправляемые, точнее, самоуправляемые процессы, позволяющие извлекать Информацию без раскодирования, или, что то же самое, процессы, позволяющие осуществлять обратный переход тепла от холодного тела к более горячему. Такие самоуправляемые процессы происходят постоянно вокруг нас, это самовоспроизводство жизни, т.е. извлечение Информации без раскодирования при воспроизводстве себе подобного.

С точки зрения физика очевидно, что живые организмы, как и все во Вселенной, что остывает, непрерывно изменяют свою энтропию, или производят неупорядоченность и таким образом  приближаются к состоянию минимальной энтропии, к состоянию «абсолютного нуля» температуры окружающей среды, что представляет собой «тепловую смерть» организма, причем скорость изменения энтропии примерно равна скорости остывания чайника — в зависимости от температуры среды и массы тела организма. Они могут избежать «остывания», т.е. оставаться живыми, только постоянно извлекая тепло из окружающей среды или отрицательную энтропию, как обычный бытовой холодильник, потребляя электроэнергию, извлекает тепло в замкнутом объеме из более холодного тела. А жизнь, потребляя энергию, содержащуюся в продуктах питания, поддерживает внутри себя температуру гомеостаза (+36,6ºС для вида homo erectus). Бактерии в конце питательной цепи извлекают отрицательную энтропию из бульона, переводя его в растворимые соединения, которыми питаются растения, извлекая положительную энтропию Солнца.

Иными словами, процессы обмена в организме ведут к возрастанию энтропии, а саморегулирование этих процессов или гомеостаз уменьшают её. И чем ближе к нулю сбалансированность положительной и отрицательной энтропии, тем выше выживаемость организма, тем выше качество естественного отбора. Отрицательная энтропия — это то, что организмы извлекают из окружающей среды (разность между температурой среды и температурой собственного тела) для поддержания своего гомеостаза (стабильности внутренней среды) и своей комфортности. Жизнь во Вселенной, с точки зрения физики, — это постоянное, непрерывное извлечение энтропии с обратным знаком.

Жизнь — это лишь адаптация к условиям окружающей среды, изначально имманентной Информации как фундаментального свойства материи. Носителем такой  Информации является двуспиральная, замкнутая (по Мёбиусу) стабильная ядерная РНК как микромодель Вселенной, занесенная на эту планету со льдом какого-то астероида, когда на ней еще не было атмосферы. 

Роль информации в принятии решений человеком.

Вот как рассматривает эту проблему К.Ю. Еськов в своей «Истории Земли и Жизни на ней»: «Наш подход к проблеме жизни на Земле будет сугубо функциональным, и в его рамках нам следует принять одно аксиоматическое утверждение: эволюция биосферы и составляющих ее экосистем идет в целом в сторону возникновения все более совершенных, т.е. устойчивых и экономных (извлекающих отрицательную энтропию с минимальными затратами), круговоротов вещества и энергии. Совершенствование циклов направлено на то, чтобы минимизировать безвозвратные потери биологических систем: экосистема стремится препятствовать вымыванию микроэлементов и захоронению неокисленного углерода, переводить воду из поверхностного стока в подземный и т.д. Поэтому с общепланетарной точки зрения жизнь следует рассматривать как способ стабилизации существующих на планете геохимических циклов».

Однако действительная суть этой концепции заключается вовсе не в романтических межпланетных странствиях «зародышей жизни», а в том, что жизнь как таковая просто является одним из фундаментальных свойств материи, и вопрос о происхождении жизни стоит в том же ряду, что и, например, вопрос о происхождении гравитации (но это совсем не означает, что мы перестанем задаваться этими вопросами, тем более что эти явления — «одно из фундаментальных свойств материи»).

«В этом плане предшественником Эйгена является биохимик Г. Кастлер (1966), проанализировавший поведение системы нуклеиновых кислот в рамках теории информации. Он пришел к выводу, что новая информация возникает в системе, только если в ней происходит случайный выбор («методом тыка») с последующим запоминанием его результатов, а не целенаправленный отбор наилучшего варианта. В последнем случае можно говорить лишь о реализации той информации, что заложена в систему изначально, то есть о выделении уже имеющейся информации из «шума» (или ее декодировании).

Сама же возможность возникновения новизны (т.е. акта творчества) определяется свойствами информации как таковой: как было показано А.А. Ляпуновым (1965), на нее не распространяются законы сохранения, т.е. информация, в отличие от материи и энергии, может быть заново создана (и, соответственно, может быть и безвозвратно утрачена.)»

Здесь необходимо выделить две составляющие единого процесса возникновения  информации по законам естественного отбора: создание помех с необходимыми и достаточными условиями для уменьшения вероятности события и его повторяемости для «случайного» выбора, или в терминах теории информации — выделение уже имеющейся информации в экосистеме из «шума». Случай и случка — слова однокоренные, и случайность всякого рождения — это, прежде всего, выделение из помех уже имеющейся в экосистеме полезной информации или «целенаправленный отбор наилучшего варианта» . «На то и щука в море, чтобы карась не дремал». Но эта полезная информация не является наследуемой (см. ниже мутация и граничные условия).

Что же является критерием качества Естественного Отбора, или какая информация является полезной?

Каналы утечки важных данных.

Естественный Отбор не имеет никакого иного инструмента для совершенствования своих творений, кроме статистического бросания костей или «метода тыка», где за каждым броском — рождение и смерть, и чем выше частота смены поколений (или количество бросков рождений-смертей за условную единицу времени, определяемую массой тела, точнее, энергоемкостью, потраченной на его взращивание), тем выше скорость обмена генофонда, тем больше преимуществ проявляется в межвидовой борьбе, тем шире видовая экологическая ниша и выше качество Естественного Отбора.

Однако же скорость обмена генофонда можно увеличить не только частотой смены поколений, но и за счет количества особей в одном помете (например, рыбы, насекомые).

Поэтому критерий качества у Естественного Отбора самый примитивный, самый жесткий и потому самый надежный: приращение биомассы популяции. Чем больше биомасса популяции, тем выше частота смены поколений или бросков рождений-смертей, тем выше качество  Отбора.

Однако этот статистический закон отбора вступает в противоречие  с законом минимизации энергоемкости на выращивание отдельной «экспериментальной» особи, чтобы не зря она опустошала свою экологическую нишу. Это противоречие разрешается тем же отбором, но только еще на уровне семени. Для растений, например, и не существует иного способа совершенствования вида. Отсюда важное следствие.

Для достижения наивысшей эффективности механизма отбора на уровне семени у млекопитающих неизбежна адаптация по признаку моногамии — парной семьи, что уже давно поняли приматы, волки, слоны. Чтобы гибель миллионов сперматозоидов из одной порции эякулята по пути к маточному яйцу не была бесцельной, в организме самки должен быть, обязан быть механизм, консервирующий адаптационную информацию, собранную самцом в борьбе с помехами.

Поэтому у самца происходит практически трехдневное обновление семенного материала, накапливающего информацию об изменениях окружающей среды (возникающие помехи) и реакциях организма самца на них, а в яичниках самки происходит консервация этой информации после каждого коитуса и передача ее каждому яйцевому зародышу при овуляции. Дело в том, что в женском организме от рождения заложено ограниченное, невосполнимое число яйцевых зародышей. Посчитайте число лунных месяцев в промежутке лет между 13 и 45-49, и вы получите это число яйцевых зародышей: примерно 350-400 шт. Как у сорной куры. В мужском организме генерация эякулята не иссякает до последнего часа.

Отсюда очень важное следствие. Это запрет на внебрачные связи для повышения продуктивности парной семьи и повышение качества ее потомства. Это и есть отбор полезной информации. Женский организм при блуде накапливает искажения, вносимые чужеродным эякулятом, и физиологические и психические, а мужской — вхолостую растрачивает свой генный материал и накопленную жизненно необходимую полезную информацию.

Основная логика эволюционного учения.

Итак, чем больше семени в разовой порции эякулята при коитусе и чем чаще потребность коитуса, тем выше качество Естественного Отбора. У млекопитающих отбор начинается при движении продуктов эякулята по маточным трубам, где ради «просперити» одного гибнет «паблисити» большого государства, примерно 250 млн. И преимущество перед другими имеет тот вид или то семейство, которое имеет более совершенный механизм  для естественного отбора на уровне семени.

Этот механизм у нас и наших эволюционных предков ускорен в двенадцать раз по сравнению с другими животными и приматами, для спаривания ожидающими сезонной подготовки кормовой базы для вскармливания потомства. И платим мы за это совершенствование дорогой ценой — ускоренным изнашиванием женского организма и его детородной функции. 40-45 лет — и климакс. Это в современности, а для предковой обезьяны — еще меньше. И это при ожидаемой среднестатистической продолжительности биологической активности для среднего веса 75-80 кг примерно 130 лет.

Формы естественного отбора.

Каким способом могло появиться семейство приматов, у которых сроки овуляции маточного яйца стали зависимы не от солнечного годового цикла, а от лунного, месячного, как и при каких условиях стала возможной такая трансформация сложнейшего механизма воспроизводства, — для нас тайна. Но это не божественное провидение.

Единственная правдоподобная догадка — всесезонная независимость кормовой базы четверорукой узконосой обезьяны, освоившей плодовый ярус тропического леса. За этой же сезонной независимостью плодовой кормовой базы стоит и отсутствие в нашем организме механизма выработки аскорбиновой кислоты (и человеческого интерферона). Все животные умеют вырабатывать витамин С (и не умеют — интерферон). Все, кроме человека, розового тропического скворца и морской свинки. А зачем был нужен нашей предковой обезьяне этот механизм, если аскорбиновая кислота всесезонно поступает извне с кормом и стимулирует выработку самого совершенного антибиотика — интерферона?

Но почему все-таки двенадцатимесячный менструальный цикл и всегда в одной и той же фазе Луны — полнолуния? Это может означать, что «приливное» действие спутника нашей планеты когда-то было более сильным, чем сейчас. И это «приливное» действие Луны определило адаптационное влияние на детородную функцию какого-то вида обезьян, ставших нашими предками.

Итак, единственным критерием качества естественного отбора, заложенным в геноме, является приращение биомассы популяции. И повышение его качества возможно только при уменьшении вероятности самого события репликации нового организма или наличия помех, необходимых и достаточных условий уменьшения вероятности репликации.

Например, насекомое земляной рак, медведка, капустница спаривается только в июньское полнолуние (летнего солнцестояния) и только в полете; кроты спариваются на поверхности, лосось, чтобы отметать икру, должен войти в устье только своей реки, прорваться через плотный заслон «едоков» по пути к истокам и, отметавшись, пасть гниющей плотью — кормом для своего потомства, несущим генетическую память об истоках своей реки; мужчина в своей единственной женщине ищет свою мать, а женщина в мужчине – своего отца; все самцы проходят через обряд брачного боя, жребия, свадьбы=судьбы: ср. «суженый» и еще масса примеров… Особо одаренные дети на Руси отмечены поговоркой: «Ни в мать, ни в отца, а в проезжего молодца».

Однако совсем не обязательно, что избыточное творчество всегда приведет к выделению полезной информации из помех — появлению потомства.

Думается, что А.А. Ляпунов здесь не ошибается. Это основополагающее свойство информации лежит в основе законов биогенеза планеты и Естественного Отбора, и если бы это было не так, то проще было бы назвать Информацию богом. Информация с разрушением носителя исчезает или перекодируется, но  может быть создана из сочетания случайных процессов, и необязательно биохимических, но и чисто физических, где случайность — это событие, вероятность которого определяется количественным показателем неупорядоченности атомно-молекулярного движения в веществе D из закона Больцмана-Гиббса. Это для процессов физических.

Характеристика форм естественного отбора.

Для процессов биологических, с которыми работает Естественный Отбор, показателем неупорядоченности является количество сперматозоидов, истраченных на один оборот поколения одной пары, деленное на общее число особей, рожденных и выживших от той пары. Для вида homo erectus оптимальное содержание сперматозоидов в порции эякулята — 180-250 млн. Содержание менее 150 млн называется олигоспермией, при которой зачатие исключено.

Если вы умножите это количество сперматозоидов на среднее число спариваний одной пары за срок детородной функции самки и разделите полученное  на численность выжившего половозрелого поколения, то обратная величина этого числа покажет вероятность выделения полезной  информации из «шума» экосистемы для этой пары. Это для идеальной пары, исключающей блуд, снижающий качество информации.

Таким образом, антропогенез необходимо рассматривать как постоянное повышение качества имманентной информации, заложенной в геноме предковой формы примата. И только для вида homo erectus частота смены поколений в 12 раз выше, чем у остальных видов, т.е. женские регулы и являются главным и единственным антропоморфным признаком, который определяет скорость и качество антропогенеза.

Единственно важные, истинные ценности в нашей жизни, ее содержание и смысл — целомудрие женщины, честь мужчины, их совместная любовь к своим детям. Это семья. Взаимное уважение между семьями и к старикам. Это Родина. Любовь к Родине и защита ее. Это государство.

Берегите женщину, свою, одну единственную половину! Целомудрие женщины — основа государственности. Только целомудренная мать может вырастить строителя и защитника Родины.

Информация, как и жизнь, является фундаментальным свойством материи, и может быть утрачена какая-то индивидуальная жизнь с неким объемом информации-сведений, но не Жизнь как имманентное свойство Вселенной.

Можно вычислить количественный показатель неупорядоченности для единицы массы любого вещества, определяющий случайность — числовую величину вероятности событий в системе, при которой возможно возникновение новой информации.

lgD = Энтропия/k

Характеристика форм естественного отбора.

Либо по предложенной методике вычислить вероятность возникновения новой информации для Естественного Отбора. И чем ниже эта вероятность, тем выше качество Естественного Отбора, тем выше качество выделенной информации.

Вторая составляющая единого процесса возникновения информации — переполнение экосистемы помехами, при которых выделение информации по критерию приращения биомассы становится невозможным, что ведет к гибели экосистемы и вырождению вида либо к мутагенному взрыву. Здесь, наверное, необходимо все-таки ввести очень важные граничные условия. Собственно, их необходимо было ввести уже давно, и они подразумевались в предшествующих рассуждениях, т.к. Естественный отбор работает с новой информацией только при скачкообразных ее изменениях.

Отбор не закрепляет качественные результаты при непрерывных изменениях наследственной информации, потому что они не наследуются как видовые признаки при выделении информации из шума, поэтому все попытки обнаружить некие «промежуточные формы» между видами обречены на провал. Непрерывные изменения наследственной информации внутри вида — тот самый наследственный «шум» системы при «целенаправленном отборе наилучшего варианта».

Гуго де Фриз (Hugo de Vries, 1848—1935) — ботаник из Голландии на ошибочном примере Ослинника Ламарка (Oenothera lamarckiana), развивая дарвиновскую теорию происхождения видов, доказал, что новый вид — не результат постепенного накопления непрерывных изменений фенотипа согласно синтетической теории эволюции (СТЭ), а результат скачкообразных изменений (в течение нескольких поколений), превращающих один вид в другой.

«Выражение скачкообразные означает в этом случае не то, что изменения очень значительны, а только факт прерывистости, так как между неизмененными особями и немногими измененными нет промежуточных форм. Де Фриз назвал это  мутацией. Здесь существенна именно прерывистость. Физику она напоминает квантовую теорию — там тоже не наблюдается промежуточных ступеней между двумя соседними энергетическими уровнями атома. Физик был бы склонен мутационную теорию де Фриза фигурально назвать квантовой теорией биологии. Позже мы увидим, что это значительно больше, чем фигуральное выражение. Своим происхождением мутации действительно обязаны “квантовым скачкам” в генной молекуле. Но квантовой теории было только два года, когда де Фриз впервые опубликовал свое открытие (в 1902 г.). Не удивительно, что потребовалась жизнь целого поколения, чтобы установить тесную связь между ними! <…>

Связь между наследственностью и естественным отбором.

В свете современных знаний механизм наследственности тесно связан с самой основой квантовой теории и, даже более того, опирается на нее. Эта теория была сформулирована Максом Планком в 1900 г. Современная генетика начинается с “открытия” менделевской работы де Фризом, Корренсом и Чермаком (1900 г.) и с работы де Фриза о мутациях (1901—1903 гг.). Таким образом, время рождения двух великих теорий почти совпадает, и не удивительно, что обе должны были достигнуть определенной степени зрелости, прежде чем между ними могла возникнуть связь.

Для квантовой теории потребовалось больше четверти века, когда в 1926—1927 гг. В. Гайтлер и Ф. Лондон сформулировали основные положения квантовой теории химических связей. Гайтлер-лондоновская теория включает в себя наиболее тонкие и сложные понятия позднейшей квантовой теории, называемой квантовой механикой, или волновой механикой. Изложение ее без применения высшей математики почти невозможно или потребовало бы, по крайней мере, небольшой книги. Но теперь, когда вся работа уже выполнена, становится возможным установить связь между квантовыми переходами и мутациями» (Шрёдингер Эрвин).

Единственным слабым местом мутационной теории де Фриза является  решение вопроса: как пара «калек-выродков», «белые вороны» с новыми признаками (и неизвестно, полезными ли) могут отыскать друг друга в обновленной экологической нише для закрепления в фенотипе мутационных изменений? Половина ответа находится в самом вопросе. Именно накопившиеся изменения условий экосистемы, невозможность преодоления помех являются основанием мутационного взрыва или скачкообразного возникновения новой информации. Далее вступают в силу статистические законы Естественного Отбора.

Итак, подытожим. В наиболее широком понимании мы можем поставить знак равенства между понятиями «информация» и «жизнь». Организм жив, пока его мозг в состоянии извлекать и перерабатывать-декодировать информацию. И единственный способ существования мозга — это извлечение, декодирование информации и выработка управляющих воздействий.

И не какой-то отвлеченный, чей-то «ничейный» организм, а наш организм.

Мозг до последней секунды биологической активности сопротивляется небытию, перерабатывает информацию и выдает управляющие воздействия. Отсюда басни о потустороннем бессмертии, основа всех культов. У животных отсутствует необходимость культовых захоронений, а значит, и представления о потусторонней жизни.

Основные положения теории Ч. Дарвина.

И только человеческий мозг, сопротивляясь небытию и оберегая информацию, способен на оккультное безумство и расточительство некрополей. И если именно ваш спермий прорвался сквозь мириады поколений и миллиарды смертей к жизни, будьте достойны этих усилий в своей земной юдоли, в течение всего лишь 25-30 тыс. дней. Помните, что, как и для всех прочих животных, по ту сторону жизни у нас нет ничего. Основатели всех конфессий и их апологеты, оформляя в безумство толпы нашу врожденную религиозность (совестливость), это очень хорошо знали и знают.  В основу всех конфессий положен догмат антропоцентризма — «венца творения» «по образу и подобию» и «рая» по ту сторону. Уравняв «венец» с «тварями», Церковь рухнет. И каждый знающий, что нет возмездия «на том свете», совсем иначе ценит каждый день и каждый поступок «на этом». И любит и ненавидит.

Энергетическая целесообразность избыточного творчества организма определяется необходимостью постоянной подпитки мозга его единственной пищей — информацией, поэтому энергозатраты на творчество, даже такое как чтение, всегда  избыточны. И вершиной творческих усилий является полная самоотдача, самопожертвование, самоотречение пары — основа всякого плодородия и залог здоровья рожденного носителя выделенной информации.

Также всегда избыточны энергозатраты на творчество при возникновении новой информации в любой физической системе.

А теперь зададимся вопросом, что есть временная совокупность знаний субъекта и что есть объективная Информация, каким мусором нас пичкают средства информации для масс и какие усилия предпринимает организм для выживания, фильтруя из этого мусора жизненно важную информацию (не потому ли мы так катастрофически быстро стареем?), какой организм можно считать мертвым, даже если он ещё шевелится?

Предпосылки возникновения учения Дарвина.

Но у жизни, человеческой жизни, есть еще задача, за которую она ответственна: извлечение отрицательной энтропии и уменьшение социальной неупорядоченности на уровне популяции.

Вероятность — математическая категория, говорящая о закономерностях возникновения случайных явлений. Для замкнутой системы становится равной нулю при раскодировании ею Информации с окружающих носителей. Или более категорично информация — это отрицание вероятности.

Случайность — это закономерность более высокого порядка, или событие, вероятность которого определяется количественным показателем D неупорядоченности атомно-молекулярного движения в веществе из закона Больцмана-Гиббса или количественным показателем неупорядоченности для любой другой системы — биологической, социальной, космической.

Материя — объективная реальность, отраженная в Информации о ее свойствах, при этом мера объективности материи не зависит от реальности ощущений субъекта. С точки зрения физика материя состоит из вещества и поля. Вещество — это пространственная атомно-молекулярная решетка, погруженная в поле на девять десятых своего объема (в среднем, в зависимости от  плотности и агрегатного состояния вещества, наибольшая плотность вещества в его жидкой фазе).

Сознание — это способность субъекта к отображению объективной реальности, материи, на основе возникшей при рождении Информации, декодированной информации при онтогенезе и возникших при этом эмоций — индивидуальных психических реакций.

Звуковой стереотип — прочно сложившиеся в сознании субъекта ассоциативные связи между возникшим образом и произнесенным звуком.

Общественное сознание — суммарный вектор индивидуальных интересов (по-русски личной корысти) в социуме.

Совесть (лат. RELIGIO) — генетически наследуемая социальная категория, определяющая устойчивое состояние психики изолированного субъекта в социуме, при котором он так оценивает свое поведение, как если бы он находился под пристальным, оценивающим взглядом иных субъектов. А равно и мотивация поведения неизолированного субъекта в среде себе подобных иных субъектов социума.

Свобода — см. Совесть

Важнейшие понятия эволюции.

Власть — необъемлющая категория социума, отрицающая категорию «совесть». Для несвободного, «без-совестного» общества Власть — реализация индивидуального права на присвоение общественного прибавочного продукта, а также чужой собственности. Здесь «право»=интерес, корысть=насилие. Отсюда общественное сознание в таком обществе, как суммарный вектор личных корыстей, равно нулю или даже отрицательно. Это не общество=socio, а общественность=publicum, не демос=народ, а толпа=охлос, отдельный индивид — паразит-потребитель, но не свободный творец.

Нужда, нищета. Мудрец сказал: «Мелочи жизни — это разные события между рождением и смертью». Дополним его. Нужда – это наши рождения и смерти между векторами индивидуальной корысти, под Властью права присвоения общественной собственности.

Самообладание, невозмутимость, хладнокровие — модель поведения личности, которая реализует волю управляющих структур Власти (см.), либо же это равнодушие абсолютного эгоиста. Человек с совестью, обладающий свободой выбора, всегда эмоционален.

fazaa.ru

Что такое информация для человека?

Термин «информация» происходит от латинского слова «informatio», что означает сведения, разъяснения, изложение. Информация — это настолько общее и глубокое понятие, что его нельзя объяснить одной фразой. В это слово вкладывается различный смысл в технике, науке и в житейских ситуациях. В обиходе информацией называют любые данные или сведения, которые кого-либо интересуют. Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т. п. «Информировать» в этом смысле означает «сообщить нечто, неизвестное раньше». Информация — сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринимают информационные системы (живые организмы, управляющие машины и др. ) в процессе жизнедеятельности и работы. Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертёж, радиопередача и т. п. ) может содержать разное количество информации для разных людей — в зависимости от их предшествующих знаний, от уровня понимания этого сообщения и интереса к нему. Так, сообщение, составленное на японском языке, не несёт никакой новой информации человеку, не знающему этого языка, но может быть высокоинформативным для человека, владеющего японским. Никакой новой информации не содержит и сообщение, изложенное на знакомом языке, если его содержание непонятно или уже известно. Информация есть характеристика не сообщения, а соотношения между сообщением и его потребителем. Без наличия потребителя, хотя бы потенциального, говорить об информации бессмысленно. В случаях, когда говорят об автоматизированной работе с информацией посредством каких-либо технических устройств, обычно в первую очередь интересуются не содержанием сообщения, а тем, сколько символов это сообщение содержит. Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т. п.) , несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объём сообщения.

Информация — это сведения о чем либо. О предметах, событиях, явлениях и процессах окружающего нас мира.

Информация для человека — это знания, которые он получает из различных источников. С помощью всех своих органов чувств человек получает информацию из внешнего мира.

заходите и получите 45 монет <a rel=»nofollow» href=»https://csgo-skins.com/» target=»_blank»>https://csgo-skins.com/</a> код PROMOART

touch.otvet.mail.ru

Author: alexxlab

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *