Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АрхитектураБиологияГеографияДругоеИностранные языки
ИнформатикаИсторияКультураЛитератураМатематика
МедицинаМеханикаОбразованиеОхрана трудаПедагогика
ПолитикаПравоПрограммированиеПсихологияРелигия
СоциологияСпортСтроительствоФизикаФилософия
ФинансыХимияЭкологияЭкономикаЭлектроника

Информационные процессы. Измерение информации. Формулы Хартли и Шеннона.

Понятия информации и информационного ресурса, данных и знаний. Свойства информации. Семиотический аспект рассмотрения информации. | Экономическая информация как ресурс. Понятие информационной инфраструктуры экономической системы. | Принципы совершенствования управления экономической системой на основе информационно-коммуникационных технологий. | Информационное обеспечение организационного развития и управления экономической системой. | Понятие архитектуры компьютера. Принципы работы ЭВМ. Исторический аспект развития вычислительной техники. Современное состояние рынка ПК. | Основные и периферийные устройства компьютера, их функции и взаимосвязь. Магистрально-модульный тип архитектуры. Программное управление работой компьютера. | Основные характеристики центрального микропроцессора. Уровни памяти. Внешние запоминающие устройства. Основные модели IBM-PC и их характеристики. | Внутреннее (машинное) представление чисел (целых и вещественных). | Кодирование текста. Особенности стандарта ASCII и стандарта Unicode. Форматы текстовых файлов. | Представление графической информации. Цвет и методы его описания. Кодирование цвета. Растровая и векторная графика. Форматы графических файлов. |


Читайте также:
  1. B)системного блока, устройств ввода информации, устройств вывода информации.
  2. I.3. Равновесные и неравновесные взаимодействия. Статические и нестатические процессы.
  3. Анализ финансового состояния предприятия и основные формулы
  4. Анализ финансовых результатов и основные формулы
  5. Ассортиментные системы коммерческой информации.
  6. Базовые методы обработки экономической информации.
  7. Бюджет и его влияние на социально-экономические процессы.

Процессы, связанные с поиском, хранением, передачей, обработкой и использованием информации называются информационными.

Поиск информации – это процесс извлечения хранимой информации.

Методы поиска информации: непосредственное наблюдение, общение со специалистами по интересующему вас вопросу, чтение соответствующей литературы, просмотр видео- и телепрограмм, прослушивание радиопередач и аудиокассет, работа в библиотеках и архивах, запрос к информационным системам, поиск информации в Интернете и др.

Сбор информации – это деятельности субъекта, в ходе которой он получает информация об интересующем его объекте.

Хранение информации – это процесс поддержания исходной информации в виде, обеспечивающем выдачу данных по запросам конечных пользователей в установленные сроки. Способ хранения зависит от её носителя.

Передача (обмен) информацией – это процесс, в ходе которого передатчик (источник) передает информацию, а получатель (приемник) её принимает. Между источником и приемником информации действует канал передачи информации – канал связи. Канал связи – совокупность технических устройств, обеспечивающих передачу сигнала от источника к получателю.

Обработка информации – это упорядоченный процесс её преобразования в соответствии с алгоритмом решения задачи или с другими формальными правилами.

Защита информации – это комплекс организационных, технических мер по предотвращению угроз информационной безопасности и устранению их последствий.

Измерение информации. В определенных условия можно пренебречь качественными особенностями информации и выразить её количество числом, а также сравнить количество информации, содержащейся в разных группах данных. За единицу количества информации принято количество информации, которое содержится в сообщении, уменьшающем неопределенные ситуации в два раза. (1 бит). Количество информации – количественная мера разнообразия. Минимальное разнообразие обеспечивается наличием двух равновероятных состояний. Говорят, что ячейка памяти обладает минимальной информационной емкостью, если она способна в зависимости от внешних воздействий принимать одно из двух состояний (0 или 1). Информационная емкость одной ячейки памяти, которая в каждый момент времени может находиться в одном из двух различных состояний принято за единицу измерения количества информации – 1 бит. 1бит – это не только единица измерения количества информации, но также единица называемая информационной энтропией.

I – количество информации, H – количество энтропии.

Информационная энтропия – величина, количественно характеризующая неопределенность (мера неопределенности, выраженная в битах). За единицу измерения неопределенности принимается неопределенность, содержащаяся в опыте, имеющем два равновероятных исхода. Самая мелкая возможная единица – 1 бит.

Если N – количество вариантов, которые равновероятны, то используется формула Р. Хартли: , где N – количество рассматриваемых вариантов. В качестве основания 2, так как минимальное количество рассматриваемых вариантов – 2.

В общем случае энтропия H и количество информации I зависят от вероятности реализации каждого из этих вариантов. Probability – вероятность (Р).

Если рассматриваемы опыт может иметь N равновероятных исходов, то вероятность некоторого события равна отношению числа равновероятных исходов благоприятных для наступления данного события к общему числу равновероятных исходов.

В общем случае, при рассмотрении неравновероятных вариантов энтропия H или количество информации рассчитывается по формуле К. Шеннона:


Дата добавления: 2015-09-05; просмотров: 124 | Нарушение авторских прав


<== предыдущая страница | следующая страница ==>
Базовые методы обработки экономической информации.| Понятия информационной технологии, информационной системы, коммуникации и информатизации. Роль экономической информатики как прикладной и теоретической науки.

mybiblioteka.su - 2015-2024 год. (0.008 сек.)