Информация.
Информация (в переводе с латинского informatio - разъяснение, изложение) - это ключевое понятие современной науки, которое стоит в одном ряду с такими как "вещество" и "энергия". Существует три основные интерпретации понятия "информация".
Научная интерпретация. Информация - исходная общенаучная категория, отражающая структуру материи и способы ее познания, несводимая к другим, более простым понятиям.
Абстрактная интерпретация. Информация - некоторая последовательность символов, которые несут как вместе, так в отдельности некоторую смысловую нагрузку для исполнителя.
Конкретная интерпретация. В данной плоскости рассматриваются конкретные исполнители с учетом специфики их систем команд и семантики языка. Так, например, для машины информация - нули и единицы; для человека - звуки, образы, и т.п.
Существуют несколько концепций (теорий) информации.
Первая концепция (концепция К. Шеннона), отражая количественно-информационный подход, определяет информацию как меру неопределенности (энтропию) события. Количество информации в том или ином случае зависит от вероятности его получения: чем более вероятным является сообщение, тем меньше информации содержится в нем.
– формула Шеннона, где
I – количество информации,
N – количество возможных событий
Pi – вероятность возможного события.
Если события равновероятны, можно использовать обобщенную формулу Шеннона
– формула Хартли.
Определить понятие количества информации сложно. В конце 40-х годов XX века (1948 г) один из основоположников кибернетики американский ученый Клод Шеннон развил вероятностный подход к измерению количества информации, а работы по созданию ЭВМ привели к объемному подходу.
Бит – это минимальная единица представлений информации, принимающая только два значения: 0 или 1.
1 – есть информация;
0 – нет информации.
Для автоматизации работы с данными, относящимися к различным типам, очень важно унифицировать их форму представления – для этого обычно используется прием кодирования, т.е. – выражение данных одного типа через данные другого типа. Например, для измерения длины в качестве эталона выбран метр, массы – килограмм и т.д.
Своя система существует в вычислительной технике – она называется двоичным кодированием и основана на представлении данных последовательностью всего двух знаков: 0 и 1. Эти знаки называются двоичными цифрами (бит). Каждая цифра машинного двоичного кода несет количество информации, равное одному биту.
1 байт=23 бит=8 бит
1 Кбайт=210байт=1024 байта
1 М байт=210Кбайт=220байт
1 Гбайт=210Мбайт=220Кбайт =230байт
1 Тбайт=210Гбайт=220Мбайт=230Кбайт=240байт
1 Пбайт=210Тбайт=220Гбайт=230Мбайт=240Кбайт=250байт
Существует формула, которая связывает между собой количество возможных событий N и количество информации I :
Вторая концепция рассматривает информацию как свойство (атрибут) материи. Ее появление связано с развитием кибернетики и основано на утверждении, что информацию содержат любые сообщения, воспринимаемые человеком или приборами. Наиболее ярко и образно эта концепция информации выражена академиком В.М. Глушковым, внесшим значительный вклад в развитие кибернетики в СССР (несмотря на ее конфликтность с существующей тогда доктриной(марксистско-ленинистской) и была признанна лженаукой, так как имела философский корни) .
Третья концепция основана на логико-семантическом (семантика - изучение текста с точки зрения смысла) подходе, при котором информация трактуется как знание, причем не любое знание, а та его часть, которая используется для ориентировки, для активного действия, для управления и самоуправления. Иными словами, информация - это действующая, полезная, "работающая" часть знаний. Представитель этой концепции В.Г. Афанасьев.
В настоящее время термин информация имеет глубокий и многогранный смысл. Во многом, оставаясь интуитивным, он получает разные смысловые наполнения в разных отраслях человеческой деятельности:
· в житейском аспекте под информацией понимают сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальными устройствами;
· в технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов;
· в теории информации (по К.Шеннону) важны не любые сведения, а лишь те, которые снимают полностью или уменьшают существующую неопределенность;
· в кибернетике, по определению Н. Винера, информация - эта та часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы;
· в семантической теории (смысл сообщения) - это сведения, обладающие новизной, и так далее...
Такое разнообразие подходов не случайность, а следствие того, что выявилась необходимость осознанной организации процессов движения и обработки того, что имеет общее название - информация.