Приведите примеры ситуаций, в которых информация



а) создаётся – написание  текста; д) копируется – внесение текста источника в свой текст; и) передаётся - интернет, радио, телевизор, от человека к человеку, письма;
б) обрабатывается – анализ текста; е) воспринимается – прочтение текста, прослушивание и тд.; к) разрушается – удаление с ПК;
в) запоминается - чтение; ж) измеряется – добавление сведений в текст; л) ищется – поиск в библиотеке, интернете;
г) делится на части – редактирование текста; з) принимается - обсуждение; м) упрощается – краткое содержание.

Приведите примеры обработки информации человеком. Что является результатами этой обработки?

Средства обработки информации — это всевозможные устройства и системы, созданные человечеством, и в первую очередь, компьютер — универсальная машина для обработки информации.

Компьютеры обрабатывают информацию путем выполнения некоторых алгоритмов.

Живые организмы и растения обрабатывают информацию с помощью своих органов и систем.

Написание инструкции по эксплуатации оборудования для персонала на основании заводской инструкции на оборудование. Получается краткая инструкция с необходимой информацией для обслуживающего персонала.

Приведите примеры информации:

  • а) достоверной и недостоверной; научная статья – газета (желтая пресса)
  • б) полной и неполной; описание всех хар-к и параметров – описание отдельно взятого факта)
  • в) ценной и малоценной; полезная, нужная, интересующая Вас информация – пустая болтовня.
  • г) своевременной и несвоевременной; предупреждение об опасности и т.д., - в последний момент, с опозданием.
  • д) понятной и непонятной; на русском языке – на непонятном языке
  • е) доступной и недоступной для усвоения;
  • ж) краткой и пространной.

Назовите системы сбора и обработки информации в теле человека.

Мозг, клетки, ткани и системы.

Приведите примеры технических устройств и систем, предназначенных для сбора и обработки информации.

АСУ ТП - датчики ИИС. Сервер – вывод на монитор измеренной информации.

От чего зависит информативность сообщения, принимаемого человеком?

Избирательной способностью воспринимающего человека, т.е. пределом различимости (понимания смысла высказывания),

Информативность сообщения основывается на следующих требованиях:

1) синтаксических, согласно которым смысл должен быть логически вводим из наблюдаемого соотношения языковых единиц.

2) семантических, согласно которым смысл, выводимый из данного соотношения языковых единиц, отражает то или иное состояние реальной действительности, включая вымысел.

3) прагматических, согласно которым в смысл, придаваемый тексту, включается оценка как отраженной действительности, так и способа ее отражения.

Почему количество информации в сообщении удобнее оценивать не по степени увеличения знания об объекте, а по степени уменьшения неопределённости наших знаний о нём?

Количество информации I на синтаксическом уровне невозможно определить без рассмотрения понятия неопределенности состояния системы (энтропии системы). Действительно, получение информации о какой-либо системе всегда связано с изменением степени неосведомленности получателя о состоянии этой системы. Пусть до получения информации потребитель имеет некоторые предварительные (априорные) сведения о системе α. Мерой его неосведомленности о системе является функция H(α), которая в то же время служит и мерой неопределенности состояния системы.

После получения некоторого сообщения β получатель приобрел некоторую дополнительную информацию Ιβ(α), уменьшившую его априорную неосведомленность так, что апостериорная (после получения сообщения β) неопределенность состояния системы стала Hβ(α).

Тогда количество информации Ιβ(α) о системе, полученной в сообщении β, определится как

Ιβ(α) = H(α) - Hβ(α) т.е. количество информации измеряется изменением (уменьшением) неопределенности состояния системы. Если конечная неопределенность Hβ(α) обратится в нуль, то первоначальное неполное знание заменится полным знанием и количество информации Ιβ(α) = H(α). Иными словами, энтропия системы(α) может рассматриваться как мера недостающей информации.

Энтропия системы H(α), имеющая N возможных состояний, согласно формуле Шеннона[2], равна:

H (α) = - N

∑Pi log Pi          

i = 1       

где Pi — вероятность того, что система находится в i-м состоянии


Дата добавления: 2018-09-22; просмотров: 3103; Мы поможем в написании вашей работы!

Поделиться с друзьями:






Мы поможем в написании ваших работ!