ПОНЯТИЕ ИНФОРМАЦИИ. ОБЩАЯ ХАРАКТЕРИСТИКА ПРОЦЕССОВ СБОРА, ПЕРЕДАЧИ, ОБРАБОТКИ И НАКОПЛЕНИЯ ИНФОРМАЦИИ
2 СОДЕРЖАНИЕ РАЗДЕЛА Предмет и структура информатики Понятие информации. Информация в жизни человечества. Свойства информации. Информационные процессы. Меры информации. Представление данных в памяти ЭВМ. Основы теории множеств. Основы теории графов. Основы алгебры логики. Связь алгебры логики с двоичным кодированием.
3 Предмет и структура информатики Информатика (Informatique) введен французскими учеными на рубеже 60-х 70х годов. Наука об информации. inform «информация» matics - «наука о. ». наука об информации. Информатика - это наука и сфера практической деятельности, связанная с различными аспектами получения, хранения, обработки, передачи и использования информации. В англоязычных странах этот термин не прижился, информатика там называется Computer Science наука о компьютерах. Эта наука включает в себя множество математических, инженерных и даже философских аспектов, через которые она становится фундаментальной наукой
4 Предмет и структура информатики ИНФОРМАТИКА ФИЛОСОФИЯ И ПСИХОЛОГИЯ Учение об информации и теории познания Учение о формальных языках и знаковых системах ЛИНГВИСТИКА МАТЕМАТИКА Теория математического моделирования. Дискретная математика. Математическая логика. Теория алгоритмов. Теория информации. Теория управления. КИБЕРНЕТИКА Все аспекты разработки и создания Аппаратных средств автоматизации ФИЗИКА. ХИМИЯ, ЭЛЕКТРОНИКА. РАДИОТЕХНИКА.
5 Предмет и структура информатики Задачи, решаемые в рамках науки информатика: Методы реализации информационных процессов находятся на стыке информатики с теорией информации, статистикой, теорией кодирования, математической логикой, документоведением и т.д. Состав, структура принципы функционирования средств вычислительной техники - используются научные положения из электроники, автоматики, кибернетики. Методы управления средствами вычислительной техники (средствами цифровой вычислительной техники управляют программы, указывающие последовательность действий, которые должно выполнить СВТ) используют научные положения из теории алгоритмов, логики, теории графов, лингвистики, теории игр.
6 Предмет и структура информатики Некоторые самостоятельные научные направления вытекающие из информатики Теоретическая информатика Кибернетика Программирование Искусственный интеллект Вычислительная техника Социальная информатика Информационные системы Информационные технологии это направление, охватывающее все области передачи, хранения и восприятия информации.
7 Понятие информации ИНФОРМАЦИЯ от латинского «informatio» «сведения, разъяснения, изложение» ИНФОРМАЦИЯ есть отражение реального мира ИНФОРМАЦИЯ есть сведения, являющиеся объектом переработки ИНФОРМАЦИЯ сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний. Представление информации способ, с помощью которого происходит отображение информации, ее внешняя форма. Переход от представления к абстрактной информации называется интерпретацией. Этот переход может быть только воображаемый, мыслимый.
8 Понятие информации В материальном мире все физические объекты (тела или поля), взаимодействуя друг с другом, порождают сигналы (сообщения) различных типов.
9 Понятие информации Сигнал это изменяющийся во времени физический процесс, обладающий различными характеристиками а непрерывный сигнал б дискретный сигнал
10 Понятие информации Регистрация сигнала это порождение в физических телах изменения свойств
11 Понятие информации Данные - это запись в соответствующем коде наблюдения, факта, объекта, пригодная для коммуникации, интерпретации, обработки и получения новой информации
12 Понятие информации Физический метод регистрации сигналов
13 Понятие информации Получение информации ДАННЫЕ АДЕКВАТНЫЙ МЕТОД ИНФОРМАЦИОННЫЙ ПРОЦЕСС ИНФОРМАЦИЯ
14 Понятие информации Взаимодействия Регистрация сигналов Адекватные методы Тела, поля Сигналы Данные Информация Физический процесс Информационный процесс Процесс формирования информации
15 Информация в жизни человека Память I II III IV Письменность (6 тыс. лет назад) Печатный станок (XVI век) Радио, телеграф (конец XIX века) ЭВМ, компьютеры (середина XX века)
16 Информация в жизни человека Материальные ресурсы Энергетические ресурсы Финансовые ресурсы Информационные ресурсы
17 Информация в жизни человека Информационные ресурсы это отдельные документы и массивы документов в библиотеках, архивах, фондах, банках данных, информационных системах и других хранилищах. Информационные ресурсы это знания, подготовленные людьми для социального использования в обществе и зафиксированные на материальных носителях. Информационные ресурсы страны, региона, организации все чаще рассматриваются как стратегические ресурсы, аналогичные по значимости запасам сырья, энергии, ископаемых и прочим ресурсам.
18 Свойства информации Свойства: объективные (не зависящие от потребителя); субъективные (зависящие от потребителя). Информация объективна в силу объективности данных, и субъективна, в силу субъективности применяемых потребителем методов. Качество информации совокупность свойств информации, характеризующих степень ее соответствия потребностям (целям, ценностям) пользователей (средств автоматизации, персонала ). Свойства информации, отражающие ее качество делят: внутренние содержательность (присущее собственно информации и сохраняющееся при ее переносе в другую систему); внешние защищенность (присущее информации, находящейся или используемой только в определенной системе).
19 Свойства информации Содержательность (внутреннее) Значимость полнота адекватность идентичность актуальность Кумулятивность избирательность гомоморфизм Защищенность (внешнее) Достоверность Сохранность целостность готовность Конфиденциальность доступность скрытность имитостойкость
20 Информационные процессы Сбор данных - это деятельность субъекта по накоплению данных с целью обеспечения достаточной полноты. Информация = данные + адекватный метод
21 Информационные процессы Передача данных - это процесс обмена данными. Канал связи Источник сообщение сообщение сообщение Приемник Сообщение форма представления информации в виде совокупности знаков (символов), используемая для передачи.
22 Информационные процессы Канал связи Сервер HTTP POP3 FTP Клиент Канал связи это естественный или искусственный материальный объект, обеспечивающий передачу сигнала от передатчика к приемнику.
23 Информационные процессы Хранение данных это поддержание данных в форме, постоянно готовой к выдаче их потребителю.
24 Информационные процессы Обработка данных это процесс преобразования информации от исходной ее формы до определенного результата.
25 Информационные процессы Сообщение Источник Канал связи Получатель Процесс передачи Процесс приема Получателем сообщение рассматривается на трех уровнях: синтаксическом рассматриваются внутренние свойства сообщений, т. е. отношения между знаками, отражающие структуру данной знаковой системы; семантическом анализируются отношения между знаками и обозначаемыми ими предметами, действиями, качествами, т. е. смысловое содержание сообщения; прагматическом рассматриваются отношения между сообщением и получателем, т. е. потребительское содержание сообщения, его значимость получателя.
26 Меры информации Меры информации Синтаксическая мера Семантическая мера Прагматическая мера Объем данных V д Количество информации I β (α)=h(α)-h β (α), где H(α) - энтропия Количество информации I c =CV д
27 Синтаксическая мера Эта мера количества информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту. Объем данных V д определяется количеством символов в сообщении. В двоичном алфавите, используется два символа, с помощью которых кодируется информация, единицей измерения объема информации является бит. В десятичном алфавите, используется десять символов, единицей измерения объема информации является дит (десятичный разряд). Пример. Сообщение в двоичной системе счисления имеет объем данных V д = 8 бит. Это же сообщение в десятичной системе счисления 187 имеет объем данных V д = 3 дит.
28 Синтаксическая мера Количество информации ( I β α ) определяется на основе понятия неопределенность информации т.е. степени неосведомленности получателя. I β α = H α H β (α), H ( ) конечная неопределенность H( ) энтропия (количество недостающей информации)
29 Синтаксическая мера Энтропия системы H( ), имеющая N возможных состояний, согласно формуле Шеннона, равна: N H α = P i log 2 P i i=1 где P i вероятность того, что система находится в -м состоянии. Для случая, когда все состояния системы равновероятны, т.е. их вероятности равны P i = 1, ее энтропия определяется N соотношением H(α) = N i=1 1 N log 2 1 N,
30 Синтаксическая мера При представлении информации в виде числового кода количество всевозможных комбинаций может быть определено N = m n, где N число всевозможных отображаемых состояний; m основание системы счисления; n число символов в сообщении. Тогда количество информации (формула Хартли): I = logn = n log (m). Если в качестве основания логарифма принять m, то I = n. Тогда I = V д,
31 Синтаксическая мера Содержательный подход Пример. При бросании монеты сообщение о результате жребия несет 1 бит информации, поскольку количество возможных вариантов результата равно 2. 2 x = 2 x= 1 бит. Пример. При игре в кости используется кубик с шестью гранями. Сколько бит информации получит игрок при каждом бросании кости? 2 x = 6 Решение этого уравнения x= log 2 6. Тогда x = 2,585 бит.
32 Синтаксическая мера Алфавитный подход Количество информации, которое несет каждый символ: I = log 2 N, N мощность алфавита. В 2-символьном алфавите (log 2 2 = 1); В 4-символьном алфавите (log 2 4 = 2); В 8- символьном 3 бита (log 2 8 = 3). Один символ из алфавита мощностью 256 (2 8 ) несет в тексте 8 бит информации. Если весь текст состоит из K символов, то при алфавитном подходе количество информации содержащейся в нем равен: I = K i, где i информационный вес одного символа в используемом алфавите.
33 Синтаксическая мера Алфавитный подход Книга, набранная с помощью компьютера, содержит 150 страниц, на каждой странице 40 строк, в каждой строке 60 символов. Определить количество информации в книге? Мощность алфавита равна 256. Согласно формуле Хартли, при условии, что все символы алфавита встречаются в тексте с одинаковой равновероятно, один символ из алфавита мощностью 256 (2 8 ) несет в тексте 8 бит информации или 1 байт информации. Значит, страница содержит = 2400 байт информации Количество информации в книге: = байт; = 351,5625 Кбайт = 0, Мбайт. 1024
34 Синтаксическая мера Вероятностный подход Количественная зависимость между вероятностью события (p) и количеством информации о нем (I). I = log 2 1 p. Чем меньше вероятность некоторого события, тем больше информации содержит сообщение об этом событии.
35 Синтаксическая мера Вероятностный подход В коробке имеется 50 шаров. Из них 40 белых и 10 черных. Если обозначить p ч вероятность при вытаскивании черного шара, p б вероятность белого шара, тогда p ч = = 0.2; p б = = 0.8. Отсюда видно, что вероятность попадания белого шара в 4 раза больше, чем черного. I б = log = 0,321928; I ч = log = 2,
36 Синтаксическая мера Коэффициент (степень) информативности (лаконичность), который определяется отношением количества информации (I) к объему данных (V д ): Y = I V д, причем 0<Y<1. Избыточность D. Определяют используя формулы Хартли и Шеннона. D = H max α H(α) H max α H max α - максимально возможная энтропия (формула Хартли); H α энтропия системы (формула Шеннона).,
37 Семантическая мера Под семантической информацией понимают смысловое содержание, извлекаемое получателем из сообщения. Зависимость количества семантической информации, воспринимаемой потребителем, от его тезауруса I c =f(s p ) Тезаурус 1. Совокупность сведений, которыми располагает пользователь (система); 2. Запас знаний в виде словаря, отражающего семантические связи между словами и другими смысловыми элементами данного языка.
38 Семантическая мера Содержательность C = I c V д
39 Прагматическая мера Эта мера определяет полезность информации (ценность) для достижения пользователем поставленной цели. I = log 2 P 1 P 0 Р 0 - вероятность достижения цели до получения сообщения P 1 - вероятность достижения цели после получения сообщения