Представление и виды  информации.



Информация всегда связана с материальным носителем, а ее передача – с затратами энергии. Одну и ту же информацию можно хранить в различном материальном виде: на бумаге, в виде фотонегатива, на магнитной ленте и т.д. и передавать с различными затратами энергии – по почте, по телефону, с курьером и т.д.

Информацию часто классифицируют по ее характерным признакам, перечислим виды информации:

1. Числовая инф-я, представленная цифрами и отражающая результаты некоторого вычисления.

2. Текстовая – в виде слов, состоящих из символов.

3. Кодовая, представленная кодами (напр., азбука Морзе, машинные коды и т п.).

4. Графическая – представленная графическими объектами с учетом их геометрических и оптических свойств.

5. Акустическая, представленная звуками.

6. Телевизионная – изображения в ТВ-формате.

7. Видио-информация – это видео- и кинофильмы в специальных форматах.

 

При любых видах работы с информацией всегда идет речь о ее представлении в виде определенных символических структур. Наиболее распространенны одномерные представления информации, при которых сообщения имеют вид последовательности символов, например, - в письменных текстах (набор букв), при передаче по каналам связи (уровень электрического сигнала), в памяти ЭВМ (наличие или отсутствие сигнала). Однако широко используются и многомерные представления информации в виде рисунков, схем, объемных макетов и плюс к этому множественность признаков используемых символов. Например, информацию могут нести не только значения букв и цифр, но и их цвет, размер, вид шрифта.

Формы адекватности и количество информации.

Под количеством информации понимают количество кодируемых, передаваемых или хранимых символов.

Наименьшей единицей информации является бит (от англ. binary digit (bit)).

Бит - это наименьшая единица памяти, необходимая для хранения одного из двух знаков 0 и 1, используемых для внутримашинного представления данных и команд.

В современных компьютерах помимо двоичной системы счисления применяют и другие: восьмеричную и шестнадцатеричную системы счисления – для компактной записи двоичных кодов чисел и команд.

В информатике принято рассматривать последовательности длиной 8 бит. Такая последовательность называется байтом (1 байт=8 битам).

Байт - это восьмиразрядный двоичный код, с помощью которого можно представить один символ.

С помощью одного байта можно записать двоичные коды 256 (28) чисел от 0 до 255.

Широко используются также еще более крупные производные единицы информации: 1 Килобайт (Кбайт) = 1024 байт = 210 байт, 1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт, 1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.В последнее время в связи с увеличением объемов обрабатываемой информации входят в употребление такие производные единицы, как: 1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт, 1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.

Различают три формы адекватности и соответствующие им меры информации:

· Синтаксическая, отражающая формально-структурные свойства информации без учета ее смыслового содержания.

· Семантическая – смысловая.

· Прагматическая (потребительская) ценность.

Синтаксическая  мера информации характеризуется объемом данных и количеством информации в битах и байтах.

    Наименьшее количество информации, это когда надо произвести выбор один из двух возможных – «есть» или «нет» - называется БИТ. В вычислительной технике бит может принимать значения 1 или 0. На этом построена вся структура ЭВМ (триггер – включить - выключить,  напряжение – выше, ниже и т.п.).

    Объем данных измеряется числом символов (разрядов) Vd  в передаваемом сообщении.

    Количество (Мера) информации по Шеннону

Если А – предварительные (априорные) сведения о системе, то неосведомленность о некоторой изучаемой системе определяется энтропией Н(А). С получением сообщения B неопределенность сведений о системе станет = Н b (А), тогда количество информации в полученном сообщении будет равно

       Ib (А)=Н(А)-Н b (А),

Следовательно количество информации определяется уменьшением неопределенности ( неосведомленности) пользователя.

    Пусть информационная система имеет N   состояний. Шеннон показал, что энтропия системы ( мера недостающей информации о ней) определяется

    Н( А )= -i=1N Pi log( Pi )

Где Pi – вероятность нахождения системы в i-м состоянии.

Если все составляющие равновероятны, то имеем:

    Н(А)=- i =1N  (1/ N ) log (1/ N )

Заметим, что N = mn , m -  основание системы счисления, n - число разрядов в сообщении.

Степенью информативности сообщения Y называется отношение количества информации I к объему данных в сообщении, т.е.  Y = I / Vd . 0< Y <1     Она же - является мерой лаконичности сообщения. Чем она выше, тем меньше объем работ по преобразованию информации.

Семантическая и прагматическая  меры информации Для измерения смыслового количества информации используется ТЕЗАУРУС –совокупность сведений которыми располагает пользователь или система распознавания информации.

Пусть S – смысл содержания информации, а Si – тезаурус пользователя.

Если Si =0, то поступающая информация бесполезна, если Si стремится к бесконечности, то пользователь уже все знает и информация для него тоже бесполезна. Таким образом, можно утверждать, что зависимость количества семантической информации Is = F ( Si ) имеет MAX (максимум) и спадающие участки. Отношение Is / Vd = C (где Vd  - это, напоминаю, объем данных) называют относительной мерой количества семантической информации.

    Прагматическая мера информации определяется ее ценностью для некоторого пользователя. Например, информация может быть ценна потому, что относится к определенному лицу или устройству или расположена на доступных носителях…

Мы помним определение ИНФОРМАЦИИ, как  содержание сообщения, сигнала, памяти.

    Различают разные виды сигналов для передачи данных: Они могут быть дискретные, аналоговые, видео-, звуковые сигналы.

Непрерывные (аналоговые) сигналы – их недостаток – ШУМЫ, низкое качество передаваемого сигнала.

Дискретный сигнал – можно представить разными уровнями параметра, например, вкл – выкл. Если уровней много, можно говорить о цифровом представлении информации. Сигналы, мгновенные значения которых представлены цифрами (числами), принято называть цифровыми сигналами.

    Совокупность методов, устройств и производственных процессов, используемых обществом для сбора, хранения, обработки и распространения информации называются информационными и коммуникационными технологиями.

Для жизни и деятельности в информационном обществе необходимо обладать информационной культурой, т.е. знаниями и умениями в области информационных технологий, а также быть знакомым с юридическими и этическими нормами в этой сфере.


Дата добавления: 2022-01-22; просмотров: 72; Мы поможем в написании вашей работы!

Поделиться с друзьями:






Мы поможем в написании ваших работ!