Представление и виды информации.
Информация всегда связана с материальным носителем, а ее передача – с затратами энергии. Одну и ту же информацию можно хранить в различном материальном виде: на бумаге, в виде фотонегатива, на магнитной ленте и т.д. и передавать с различными затратами энергии – по почте, по телефону, с курьером и т.д.
Информацию часто классифицируют по ее характерным признакам, перечислим виды информации:
1. Числовая инф-я, представленная цифрами и отражающая результаты некоторого вычисления.
2. Текстовая – в виде слов, состоящих из символов.
3. Кодовая, представленная кодами (напр., азбука Морзе, машинные коды и т п.).
4. Графическая – представленная графическими объектами с учетом их геометрических и оптических свойств.
5. Акустическая, представленная звуками.
6. Телевизионная – изображения в ТВ-формате.
7. Видио-информация – это видео- и кинофильмы в специальных форматах.
При любых видах работы с информацией всегда идет речь о ее представлении в виде определенных символических структур. Наиболее распространенны одномерные представления информации, при которых сообщения имеют вид последовательности символов, например, - в письменных текстах (набор букв), при передаче по каналам связи (уровень электрического сигнала), в памяти ЭВМ (наличие или отсутствие сигнала). Однако широко используются и многомерные представления информации в виде рисунков, схем, объемных макетов и плюс к этому множественность признаков используемых символов. Например, информацию могут нести не только значения букв и цифр, но и их цвет, размер, вид шрифта.
|
|
Формы адекватности и количество информации.
Под количеством информации понимают количество кодируемых, передаваемых или хранимых символов.
Наименьшей единицей информации является бит (от англ. binary digit (bit)).
Бит - это наименьшая единица памяти, необходимая для хранения одного из двух знаков 0 и 1, используемых для внутримашинного представления данных и команд.В современных компьютерах помимо двоичной системы счисления применяют и другие: восьмеричную и шестнадцатеричную системы счисления – для компактной записи двоичных кодов чисел и команд.
В информатике принято рассматривать последовательности длиной 8 бит. Такая последовательность называется байтом (1 байт=8 битам).
Байт - это восьмиразрядный двоичный код, с помощью которого можно представить один символ.
С помощью одного байта можно записать двоичные коды 256 (28) чисел от 0 до 255.
Широко используются также еще более крупные производные единицы информации: 1 Килобайт (Кбайт) = 1024 байт = 210 байт, 1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт, 1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.В последнее время в связи с увеличением объемов обрабатываемой информации входят в употребление такие производные единицы, как: 1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт, 1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.Различают три формы адекватности и соответствующие им меры информации:
|
|
· Синтаксическая, отражающая формально-структурные свойства информации без учета ее смыслового содержания.
· Семантическая – смысловая.
· Прагматическая (потребительская) ценность.
Синтаксическая мера информации характеризуется объемом данных и количеством информации в битах и байтах.
Наименьшее количество информации, это когда надо произвести выбор один из двух возможных – «есть» или «нет» - называется БИТ. В вычислительной технике бит может принимать значения 1 или 0. На этом построена вся структура ЭВМ (триггер – включить - выключить, напряжение – выше, ниже и т.п.).
Объем данных измеряется числом символов (разрядов) Vd в передаваемом сообщении.
Количество (Мера) информации по Шеннону
Если А – предварительные (априорные) сведения о системе, то неосведомленность о некоторой изучаемой системе определяется энтропией Н(А). С получением сообщения B неопределенность сведений о системе станет = Н b (А), тогда количество информации в полученном сообщении будет равно
|
|
Ib (А)=Н(А)-Н b (А),
Следовательно количество информации определяется уменьшением неопределенности ( неосведомленности) пользователя.
Пусть информационная система имеет N состояний. Шеннон показал, что энтропия системы ( мера недостающей информации о ней) определяется
Н( А )= -i=1 ∑N Pi log( Pi )
Где Pi – вероятность нахождения системы в i-м состоянии.
Если все составляющие равновероятны, то имеем:
Н(А)=- i =1 ∑ N (1/ N ) log (1/ N )
Заметим, что N = mn , m - основание системы счисления, n - число разрядов в сообщении.
Степенью информативности сообщения Y называется отношение количества информации I к объему данных в сообщении, т.е. Y = I / Vd . 0< Y <1 Она же - является мерой лаконичности сообщения. Чем она выше, тем меньше объем работ по преобразованию информации.
Семантическая и прагматическая меры информации Для измерения смыслового количества информации используется ТЕЗАУРУС –совокупность сведений которыми располагает пользователь или система распознавания информации.
Пусть S – смысл содержания информации, а Si – тезаурус пользователя.
Если Si =0, то поступающая информация бесполезна, если Si стремится к бесконечности, то пользователь уже все знает и информация для него тоже бесполезна. Таким образом, можно утверждать, что зависимость количества семантической информации Is = F ( Si ) имеет MAX (максимум) и спадающие участки. Отношение Is / Vd = C (где Vd - это, напоминаю, объем данных) называют относительной мерой количества семантической информации.
|
|
Прагматическая мера информации определяется ее ценностью для некоторого пользователя. Например, информация может быть ценна потому, что относится к определенному лицу или устройству или расположена на доступных носителях…
Мы помним определение ИНФОРМАЦИИ, как содержание сообщения, сигнала, памяти.
Различают разные виды сигналов для передачи данных: Они могут быть дискретные, аналоговые, видео-, звуковые сигналы.
Непрерывные (аналоговые) сигналы – их недостаток – ШУМЫ, низкое качество передаваемого сигнала.
Дискретный сигнал – можно представить разными уровнями параметра, например, вкл – выкл. Если уровней много, можно говорить о цифровом представлении информации. Сигналы, мгновенные значения которых представлены цифрами (числами), принято называть цифровыми сигналами.
Совокупность методов, устройств и производственных процессов, используемых обществом для сбора, хранения, обработки и распространения информации называются информационными и коммуникационными технологиями.
Для жизни и деятельности в информационном обществе необходимо обладать информационной культурой, т.е. знаниями и умениями в области информационных технологий, а также быть знакомым с юридическими и этическими нормами в этой сфере.
Дата добавления: 2022-01-22; просмотров: 72; Мы поможем в написании вашей работы! |
Мы поможем в написании ваших работ!