Читайте также:
|
|
Процессы, связанные с поиском, хранением, передачей, обработкой и использованием информации называются информационными.
Поиск информации – это процесс извлечения хранимой информации.
Методы поиска информации: непосредственное наблюдение, общение со специалистами по интересующему вас вопросу, чтение соответствующей литературы, просмотр видео- и телепрограмм, прослушивание радиопередач и аудиокассет, работа в библиотеках и архивах, запрос к информационным системам, поиск информации в Интернете и др.
Сбор информации – это деятельности субъекта, в ходе которой он получает информация об интересующем его объекте.
Хранение информации – это процесс поддержания исходной информации в виде, обеспечивающем выдачу данных по запросам конечных пользователей в установленные сроки. Способ хранения зависит от её носителя.
Передача (обмен) информацией – это процесс, в ходе которого передатчик (источник) передает информацию, а получатель (приемник) её принимает. Между источником и приемником информации действует канал передачи информации – канал связи. Канал связи – совокупность технических устройств, обеспечивающих передачу сигнала от источника к получателю.
Обработка информации – это упорядоченный процесс её преобразования в соответствии с алгоритмом решения задачи или с другими формальными правилами.
Защита информации – это комплекс организационных, технических мер по предотвращению угроз информационной безопасности и устранению их последствий.
Измерение информации. В определенных условия можно пренебречь качественными особенностями информации и выразить её количество числом, а также сравнить количество информации, содержащейся в разных группах данных. За единицу количества информации принято количество информации, которое содержится в сообщении, уменьшающем неопределенные ситуации в два раза. (1 бит). Количество информации – количественная мера разнообразия. Минимальное разнообразие обеспечивается наличием двух равновероятных состояний. Говорят, что ячейка памяти обладает минимальной информационной емкостью, если она способна в зависимости от внешних воздействий принимать одно из двух состояний (0 или 1). Информационная емкость одной ячейки памяти, которая в каждый момент времени может находиться в одном из двух различных состояний принято за единицу измерения количества информации – 1 бит. 1бит – это не только единица измерения количества информации, но также единица называемая информационной энтропией.
I – количество информации, H – количество энтропии.
Информационная энтропия – величина, количественно характеризующая неопределенность (мера неопределенности, выраженная в битах). За единицу измерения неопределенности принимается неопределенность, содержащаяся в опыте, имеющем два равновероятных исхода. Самая мелкая возможная единица – 1 бит.
Если N – количество вариантов, которые равновероятны, то используется формула Р. Хартли: , где N – количество рассматриваемых вариантов. В качестве основания 2, так как минимальное количество рассматриваемых вариантов – 2.
В общем случае энтропия H и количество информации I зависят от вероятности реализации каждого из этих вариантов. Probability – вероятность (Р).
Если рассматриваемы опыт может иметь N равновероятных исходов, то вероятность некоторого события равна отношению числа равновероятных исходов благоприятных для наступления данного события к общему числу равновероятных исходов.
В общем случае, при рассмотрении неравновероятных вариантов энтропия H или количество информации рассчитывается по формуле К. Шеннона:
Дата добавления: 2015-09-05; просмотров: 124 | Нарушение авторских прав
<== предыдущая страница | | | следующая страница ==> |
Базовые методы обработки экономической информации. | | | Понятия информационной технологии, информационной системы, коммуникации и информатизации. Роль экономической информатики как прикладной и теоретической науки. |