Основные принципы формализации.



Основные черты информационного общества. Этапы информационной революции. Носители информации.

Черты информационного общества:

1. большинство работающих (около 80%) занято в информационной сфере, то есть сфере производства информации и информационных услуг.

2. обеспечена возможность доступа любому члену общества практически в любой точке территории в приемлемое время к нужной ему информации (за исключением гос. тайны)

3. В информационном обществе информация — важнейший стратегический ресурс общества и занимает ключевое место в экономике, образовании, культуре.

Этапы развития:

1. V тысячелетие до нашей эры. Противоречие — необходимо сохранять и передавать накопленные опыт и знания, а не на чем. Появление письменности. Носители информации - камни, глиняные таблички, папирус, пергамент, а во II веке до н.э. появилась и бумага. Т.О. хранилище информации — не только человеческий мозг.

2. XV век — развитие производства (появление цехов. мануфактур и т.п) — как следствие потребность в большом числе образованных людей, способных всем этим управлять. Противоречие состояло в том, что рукописных книг не хватало. Было изобретено книгопечатания. Основной носитель информации — бумага.

Затем — к началу XX века появились и устройства для ХРАНЕНИЯ информации — фотография. кинолента, магнитная запись.

3. середина XX столетия. Был изобретен компьютер.

Носитель информации — это любое устройство предназначенное для записи и хранения информации.

Носители информации: Камни и стены пещер, глиняные таблички, восковые таблички, папирус, пергамент постепенно вытеснял папирус, бумага, береста, перфокарты, перфоленты, магнитная лента , магнитные диски, гибкий диск, жесткий диск, сompact Disk, DVD, Flash.

Современные носители — характеристики:

1.Объем.

2.Поиск.

3.Универсальность.

4.Простота репликации.

 

Основные понятия информатики: информация, материальный носитель, сигнал, сообщение, информационный процесс, источник сообщения, получатель сообщения.

Понятие «информация» является одним из фундаментальных в современной науке и базовым для изучаемой нами науки. Информация содержится в человеческой речи, текстах книг, журналов, газет, сообщениях радио и телевидения, показаниях приборов и т.д.

Материальный объект или среду, которые служат для представления или передачи информации, будем называть ее материальным носителем (бумага, диск, воздух и т.п.).

Изменение характеристики носителя, которое используется для представления информации, называется сигналом, а значение этой характеристики, отнесенное к некоторой шкале измерений, называется параметром сигнала.

Последовательность сигналов называется сообщением.

Сообщение, таким образом, служит переносчиком информации, а информация является содержанием сообщения.

Источник информации — это субъект или объект, порождающий информацию и представляющий ее в виде сообщения.

Получатель информации — это субъект или объект, принимающий сообщение и способный правильно его интерпретировать.

Информационный процесс – это изменение с течением времени содержания информации или представляющего его сообщения.

Основные виды информационных процессов:

1. создание новой информации

2. преобразование информации

3. уничтожение информации

4. передача информации

Виды сигналов. Дискретизация непрерывного сигнала. Теорема отсчетов Котельникова.

Виды сигналов:

1) Сигнал называется непрерывным (или аналоговым), если его параметр может принимать любое значение в пределах некоторого интервала (речь, музыка)

2) Сигнал называется дискретным, если его параметр может принимать конечное число значений в пределах некоторого интервала

Непрерывное сообщение можно преобразовать в дискретное. Эта процедура называется дискретизацией. Возможность дискретизации непрерывного сигнала принципиально важна с точки зрения информатики. Компьютер – цифровая машина, т.е. внутренне представление информации в нем дискретно. Дискретизация входной непрерывной информации позволяет сделать ее пригодной для компьютерной обработки.

Теорема отсчетов (Котельникова, 1933): Непрерывный сигнал можно полностью отобразить и точно воссоздать по последовательности измерений или отсчетов величины этого сигнала через одинаковые интервалы времени, меньшие или равные половине периода максимальной частоты, имеющейся в сигнале.

Теорема отсчетов дает ответ и на вопрос о возможности проведения такого преобразования без потери информации.

         

Основные принципы формализации.

Формализация — этап перехода от содержательного описания связей между выделенными признаками объекта (словесного или в виде текста) к описанию, использующему некоторый язык кодирования ( языка схем, языка математики и т. д.).

Одним из наиболее распространенных формальных языков является алгебраический язык формул в математике, который позволяет описывать функциональные зависимости между величинами.

Моделирование любой системы невозможно без предварительной формализации. По сути, формализация — это первый и очень важный этап процесса моделирования.

Основные принципы формализации:

• разработка неформального описания модели (словесное описание существенных для рассматриваемой задачи характеристик изучаемого объекта и связей между ними);

• составление формализованного описания на некотором языке кодирования ( с использованием математических соотношений и текстов);

• реализация формализованного описания в виде программы на некотором языке программирования.

Например, формула F=m*a является формализованным описанием второго закона Ньютона.

 

Формула Шеннона (примеры).

Важным при введении какой-либо величины является вопрос о том, что принимать за единицу ее измерения. Иначе говоря, в качестве единицы принимается количество информации, связанное с проведением опыта, состоящего в получении одного из двух равновероятных исходов («орел» и «решка»). Такая единица количества информации называется «бит».

Все N исходов рассмотренного выше опыта являются равновероятными и поэтому можно считать, что на «долю» каждого исхода приходится одна N-я часть общей неопределенности опыта; (log2N)/N. При этом вероятность i-го исхода Pi равняется, очевидно, 1/N.

Таким образом,

                                  H=∑Pilog2(1/Pi)                                                                   (1.5)

Формула (1.5) принимается за меру энтропии и в случае, когда вероятности различных исходов опыта неравновероятны (т.е. Pi могут быть различны). Формула (1.5) называется формулой Шеннона.

В качестве примера определим количество информации, связанное с появлением каждого символа в сообщениях, записанных на русском языке. Будем считать, что русский алфавит состоит из 33 букв и знака «пробел» для разделения слов.

H=log234≈5 бит.

         


Дата добавления: 2019-02-22; просмотров: 887; Мы поможем в написании вашей работы!

Поделиться с друзьями:






Мы поможем в написании ваших работ!