Теоретическая часть



Информация – это…

Попробуйте ответить на простой, казалось бы, вопрос: что такое информация? Вы пользуетесь этим термином постоянно: работаете с информацией, ищете информацию, воспринимаете информацию, действуете под управлением информации. Задумайтесь на минуту и попытайтесь ответить: Информация – это…

Что у вас получилось? Самые популярные в такой ситуации ответы: “Это что-то новое”, “Это сообщения, сведения”, “Это знания”, “Это данные”…

Слово “ information ” действительно переводится с латинского языка, как “ осведомление ”, “ разъяснение ”, и такое определение устраивало человечество до сороковых годов двадцатого века.

Этим термином пользовались для определения чисто практических понятий, таких, как некоторая совокупность знаний, сведений о конкретном предмете, явлении, событии. Такая информация носит вполне конкретный характер и во многих случаях не несёт в себе количественной оценки.

Тысячелетиями слово “информация” было рядовым, ничем не выделяющимся среди десятков тысяч других слов. Все это долгое время человек считал себя единственным созданием, способным к передаче, приему и творению информации.

Положение стало меняться с появлением кибернетики – науки об управлении. "Кибернетика" Норберта Винера увидела свет в 1948 году. Она открыла людям глаза на то, что сейчас известно каждому – информационные процессы происходят в любом живом организме, начиная с амебы и вируса. Созданные человеком машины также работаю под управлением информации. Любое сообщество живых существ – муравьев, пчел, рыб, птиц и, конечно, людей не может существовать без потоков информации, циркулирующих в нем.

Датой рождения “Теории информации” также считается 1948 год. Именно тогда в реферативном журнале американской телефонной компании "Белл систем" появилась статья 32-летнего инженера-связиста Клода Шеннона "Математическая теория связи”, в которой он предложил способ измерения количества информации. С этого момента понятие "информация" начинает расширять сферу своего применения.

Вскрытие единства процессов в живом и неживом, широкое внедрение ЭВМ, стремительное нарастание информационного потока в виде газет, журналов, книг, теле- и радиотрансляций придало совершенно другое, новое значение слову “информация”. На современном этапе развития науки признано, что понятие "информация" значительно более ёмкое и, что очень важно, существует и вне нашего восприятия. Другими словами, весь окружающий нас мир, как доступный, так и недоступный нам, всюду имеет информационную структуру.

“Информация” превратилась в необычайно широкое понятие и встала в один ряд с такими философскими категориями, как материя, энергия, пространство и время. Однако единого общепризнанного определения информации не существует до сих пор, более того, это понятие остается одним их самых дискуссионных в современной науке. Все мы имеем представление о том, что такое материя, энергия, пространство, время, информация, мы можем описать их свойства, мы можем их измерять, но мы так и не можем пока дать их четкого научного определения.

Впервые этот термин стал использоваться во Франции в 60-х годах. В англоязычных странах ему соответствует синоним computer science (наука о компьютерной технике).

В нашей стране информатика стала определяться как самостоятельная область деятельности с начала 80-х годов, а спустя несколько лет вошла в школьную программу как самостоятельная дисциплина.

Информатика определяет сферу человеческой деятельности, связанную с процессами хранения, преобразования и передачи информации с помощью компьютера.

Но могущество компьютера определяется человеком и теми знаниями, которыми он обладает.

В процессе изучения информатики надо не только научиться работать на компьютере, но и уметь целенаправленно его использовать для познания и созидания окружающего нас мира.

Термин "информатика" (франц. informatique) происходит от французских слов information (информация) и automatique (автоматика) и дословно означает "информационная автоматика".

Informatique = information + automatique

Информатика = информация + автоматика

Широко распространён также англоязычный вариант этого термина – "Сomputer science", что означает буквально "компьютерная наука".

Сomputer science

Компьютерная наука

Давайте познакомимся с определениями информации, данными выдающимися учеными:

- Информация – это обозначение содержания, полученного от внешнего мира в процессе приспособления к нему (Н. Винер).

- Информация – отрицательная энтропия (негэнтропия) (Л. Бриллюэн).

- Информация – вероятность выбора (А. М. Яглом, И. М. Яглом).

- Информация – снятая неопределенность (К. Шеннон).

- Информация – мера сложности структур, мера упорядоченности материальных систем (А. Моль).

- Информация - снятая неразличимость, передача разнообразия (У.Р. Эшби).

- Информация – отраженное разнообразие (А. Д. Урсул).

- Информация – мера неоднородности распределения материи и энергии в пространстве и времени (В. М. Глушков).

Что же верно? Попробуйте сформулировать понятие информации в различных науках. Подсказка:

- математика: информация – это сведения, которые человек создал с помощью умозаключений;

- биология – информация – это генетический код человека;

- в обычной жизни: информация – это сведения, сообщения, осведомлённость о положении дел, о состоянии чего-нибудь.

Давайте договоримся использовать следующее определение:

Информация – это логические сведения об окружающем нас мире, объективно отражающем законы развития природы, общества, мышления и используемые в практической деятельности человека.

Информацию вы получаете из разных источников: когда читаете, слушаете, смотрите телепередачу или разглядываете картину, дотрагиваетесь до предмета или пробуете какую-нибудь еду.

Информация несет человеку знания об окружающем мире. В наши дни человечество накопило огромное количество информации! Подсчитано, что общая сумма человеческих знаний до недавнего времени удваивалась каждые 50 лет. Сейчас объем информации удваивается через каждые два года. Представьте себе колоссальную библиотеку, содержащую эти сведения! От умения человека правильно воспринимать и обрабатывать информацию зависит во многом его способность к познанию окружающего мира.

Мир вокруг нас полон всевозможных образов, звуков, запахов, и всю эту информацию доносят до сознания человека его органы чувств: зрение, слух, обоняние, вкус и осязание. С их помощью человек формирует свое первое представление о любом предмете, живом существе, произведении искусства, явлении и пр.

  • Глазами люди воспринимают зрительную информацию;
  • Органы слуха доставляют информацию в виде звуков;
  • Органы обоняния позволяют ощущать запахи;
  • Органы вкуса несут информацию о вкусе еды;
  • Органы осязания позволяют получить тактильную информацию.

Виды информации, которые человек получает с помощью органов чувств, называют органолептической информацией. Практически 90% информации человек получает при помощи органов зрения, примерно 9% — посредством органов слуха и только 1% — при помощи остальных органов чувств.

В информатике принята следующая классификация видов информации.

Информация

       
   

  Аналоговая – непрерывная (воспринимается человеком)   Дискретная – скачкообразная (воспринимается вычислительной техникой)  
     

    Визуальная Аудиальная Тактильная Обонятельная Вкусовая

Попробуйте назвать источники аналоговой и цифровой информации.

Люди, обмениваясь между собой информацией, постоянно должны задавать себе вопросы: понятна, актуальна и полезна ли она для окружающих, достоверны ли полученные сведения. Это позволит лучше понять друг друга, найти правильное решение в любой ситуации. Вы постоянно анализируете свойства информации, часто не придавая этому значения. В повседневной жизни от свойств информации часто зависят жизнь и здоровье людей, экономическое развитие общества.

Можно привести немало разнообразных свойств информации. Связано это с тем, что в разных науках (как вы уже знаете) существует своё определение информации. Соответственно и свойства информации рассматриваются с точки зрения каждой научной дисциплины. Для информатики наиболее важными представляются следующие свойства: полнота и точность, актуальность, достоверность, полезность (ценность), понятность.

Запишем все перечисленные свойства информации в виде следующей таблицы:

Основные свойства информации
Понятность Этим свойством обладает только та информация, которая выражена в форме, понятной тем, кому она предназначена, в противном случае она становится бесполезной.
Полезность (ценность) Это комплексный показатель качества информации. Зависит от того, какие задачи можно решить, используя эту информацию. Однако ценность информации – это понятие субъективное, т. к. информация, полезная для одного человека, может быть совершенно бесполезной для другого.
Достоверность Информация достоверна, если она содержит сведения, отражающие истинное положение дел. Часто из-за искаженной информации это свойство утрачивается. Кроме того, достоверная информация со временем может стать недостоверной, так как она обладает свойством устаревать, то есть перестает отражать истинное положение дел.
Актуальность Она определяется степенью сохранения ценности информации в момент её использования. Актуальную информацию очень важно иметь при работе в изменяющихся условиях, т.к. в таком случае только вовремя полученная (или обновленная) информация может принести пользу (примером может служить прогноз погоды).
Полнота и точность Полнота информации означает, что она содержит минимальный, но достаточный для принятия правильного решения состав. Нарушение полноты информации сдерживает принятие решений и может повлечь ошибки.

Воспринимая информацию с помощью органов чувств, человек стремится зафиксировать ее так, чтобы она стала понятной и другим, представляя ее в той или иной форме.

Музыкальную тему композитор может наиграть на пианино, а затем записать с помощью нот. Образы, навеянные все той же мелодией, поэт может воплотить в виде стихотворения, хореограф выразить танцем, а художник — в картине.

Человек выражает свои мысли в виде предложений, составленных из слов. Слова, в свою очередь, состоят из букв. Это — алфавитное представление информации.

Форма представления одной и той же информации может быть различной. Это зависит от цели, которую вы перед собой поставили.

Таким образом, информацию можно представить в различной форме:

o в знаковой письменной

n символьную в виде текста, чисел, различных символов (текст учебника);

n графическую (географическая карта);

n табличную (таблица по физике);

o в виде жестов или сигналов (светофор);

o устной словесной (разговор).

Форма представления информации очень важна при ее передаче. В разные времена люди передавали информацию в различной форме с помощью: речи, дыма, забавного боя, звона колоколов, письма, телеграфа, радио, телефона, факса. Независимо от формы представления и способа передачи информации, она всегда передается с помощью какого-либо языка.

Основу любого языка составляет алфавит — набор однозначно определенных знаков (символов), из которых формируется сообщение.

Языки делятся на естественные (разговорные) и формальные. Алфавит естественных языков зависит от национальных традиций. Формальные языки встречаются в специальных областях человеческой деятельности (математике, физике, химии и т. д.). В мире насчитывается около 10 000 разных языков, диалектов, наречий. Многие разговорные языки произошли от одного и того же языка. Например, от латинского языка образовались французский, испанский, итальянский и другие языки.

Каждый народ имеет свой язык, состоящий из набора символов (букв): русский, английский, японский и многие другие. Вы уже познакомились с языком математики, физики, химии. Представление информации с помощью какого-либо языка часто называют кодированием.

Код — набор символов (условных обозначений) для представления информации.

Кодирование — процесс представления информации в виде кода.

Вы встречаетесь с кодированием информации при переходе дороги по сигналам светофора. Код определяет цвета светофора — красный, желтый, зеленый, основу естественного языка, на котором общаются люди, тоже положен код. Только в этом случае он называется алфавитом. При разговоре этот код передается звуками, при письме — буквами. Одну и туже информацию можно представить с помощью различных кодов. Например, запись разговора можно зафиксировать посредством русских букв или специальных стенографических значков.

По мере развития техники появлялись разные способы кодирования информации. Во второй половине XIX века американский изобретатель Сэмюель Морзе изобрел удивительный код, который служит человечеству до сих пор. Информация кодируется тремя «буквами»: длинный сигнал (тире), короткий сигнал (точка) и отсутствие сигнала (пауза) для разделения букв. Таким образом, кодирование сводится к использованию набора символов, расположенных в строго определенном порядке.

Люди всегда искали способы быстрого обмена сообщениями. Для этого посылали гонцов, использовали почтовых голубей. У народов существовали различные способы оповещения о надвигающейся опасности: барабанный бой, дым костров, флаги и т. д. Однако использование такого представления информации требует предварительной договоренности о понимании принимаемого сообщения.

Знаменитый немецкий ученый Готфрид Вильгельм Лейбниц предложил еще в XVII веке уникальную и простую систему представления чисел. «Вычисление с помощью двоек... является для науки основным и порождает новые открытия... при сведении чисел к простейшим началам, каковы 0 и 1, везде появляется чудесный порядок».

Сегодня такой способ представления информации, с помощью языка содержащего два символа 0 и 1, широко используется в технических устройствах.

Эти два символа 0 и 1 принято называть битами (от англ. binary digit – двоичный знак).

Бит – наименьшая единица измерения информации и обозначается двоичным числом.

Более крупной единицей изменения объема информации принято считать 1 байт, который состоит из 8 бит.

1 байт = 8 битов.

Байт – единица измерения информации, принятая в международной системе СИ.

Инженеров такой способ кодирования привлек простотой технической реализации — есть сигнал или нет сигнала. С помощью этих двух цифр можно закодировать любое сообщение.

Название Условное обозначение Соотношение с другими единицами
Байт Байт 8 бит
Килобайт Кбайт, Кб 1 Кб = 210 байт = 1024 байт
Мегабайт Мбайт, Мб 1 Мбайт = 210 Кбайт = 1024 Кбайт = 220 байт = 1 048 576 байт
Гигабайт Гбайт (Гб) 1 Гбайт = 210 Мбайт = 1024 Мбайт = 220 Кбайт = 230 байт = 1 073 741 824 байт

Существуют и более крупные единицы измерения количества информации, которые используются реже, чем перечисленные выше:

1 терабайт (Тбайт, Тб) = = 210 Гбайт = 1024 Гбайт = 220 Мбайт = 230 Кбайт = 240 байт

1 петабайт (Пбайт, Пб) = = 210 Тбайт = 1024 Тбайт = 220 Гбайт = 230 Мбайт = 240 Кбайт

= 250 байт

Примеры объёмов информации:

Страница книги 2,5 Кбайт
Учебник 0,5 Мбайт
БСЭ 120 Мбайт
Газета 150 Кбайт
Чёрно-белый телевизионный кадр 300 Кбайт
Цветной кадр из трёх цветов 1 Мбайт
1,5 часовой цветной художественный фильм 135 Гбайт
В 100 Мб можно уместить:
Страниц текста 50 000
Цветных слайдов высочайшего качества  
Аудиозапись 1,5 часа
Музыкальный фрагмент CD-стерео 10 минут
Фильм высокого качества записи 15 секунд
Протоколы операций по банковским счетам За 1000 лет

 

Итак, в разных научных дисциплинах и разных областях техники существуют разные понятия информации. Но есть общие черты, которые объединяют эти разные подходы.

1. Что нужно сделать, чтобы информация появилась? (Создать, найти, искать, собрать).

2. У меня есть некоторая информация (текст письма, задачи, картина в памяти, мелодия в «голове», код к сейфу). Что я смогу с ней сделать? (Передать, распространить, использовать, копировать, разделить).

3. Есть ли ситуация, в которой я не смогу её передать? (Помехи).

4. Что можно сделать с информацией, находящейся у друга? (получить, разрушить упростить).

5. Что нужно сделать, чтобы сопоставить несколько информаций (сложить два числа, перевести текст с английского на русский, расшифровать код ДНК, сделать коллаж, получить закон физики, поставить диагноз)? (Обработать, преобразовать).

6. С помощью чего информация передаётся (текст письма, видеофильм, картина, код ДНК, список группы, наскальные рисунки, компьютерная программа)? (Бумага, кассета, ген, классный журнал, камень, жёсткий диск).

7. Как информация добирается до получателя (текст, мелодия, рисунок, электронное письмо)? (Воздух, телекоммуникационные каналы).

Вывод: понятие информации во всех без исключения сферах предполагает создание, передачу, обработку и хранение информации. Все эти процессы называются информационными.

Информационными называются процессы, связанные с получением, хранением, обработкой и передачей информации.


Дата добавления: 2015-12-17; просмотров: 19; Мы поможем в написании вашей работы!

Поделиться с друзьями:






Мы поможем в написании ваших работ!