§ 9. Информация и информационные процессы п.1. Понятие об информации. Носители информации. Количественная мера информации. Кодирование информации
Понятие “информация” является одним из основных фундаментальных понятий в современной науке и не может быть строго определено через другие более общие или более простые понятия.
Термин «информация» происходит от латинского слова informatio, означающего разъяснение, изложение.
В житейском плане мы обычно понимаем под информацией сообщение о состоянии и свойствах объектов, явлений, процессов.
Вся жизнь и деятельность каждого человека и общества в целом тесно связана с процессами восприятия, хранения, переработки и использования информации. С самого раннего детства мы вовлечены в процессы обмена информацией. Вопросы, ответы, улыбки – все это передача информации. Мы получаем информацию, когда читаем газеты, книги, журналы, слушаем товарищей, учителя, родителей и т.д.
Информация имеет форму: форму рассказа, книги, рисунка, музыкального произведения, кино, разговора и др.
Свойства информации:
Достоверность – если она отражает истинное положение дел. К чему может привести недостоверная информация? К неправильному пониманию или неправильному принятию решений (например, на бирже).
Полнота– если ее достаточно для понимания и принятия решений. Неполнота информации может сдерживать принятие решений или повлечь ошибки.
Ценность и актуальность– если информация полезна для принятия решений и поступила вовремя.
Ясность– когда информация выражена понятным языком, для тех, кому предназначена эта информация.
Опр 9.1.1Информатика – это научная дисциплина, изучающая законы и методы накопления, обработки, хранения и передачи информации с помощью электронно-вычислительных машин (ЭВМ).
Хранить информацию можно в двух формах: непрерывной (или аналоговой) и дискретной (рис. 42).
Рис. 42
Аналоговая форма представления информации (музыка на магнитной ленте)
| Дискретная форма представления информации (таблица замеров температур) |
Первобытные люди, также как и мы с вами, были вовлечены в процессы передачи и переработки информации. Они общались жестами и мимикой, рассказывая друг другу о приближающейся опасности, о поисках пищи и жилья и т.д. Постепенно появилась речь, и обмен информацией стал более живой и ясный. С возникновением письменности информация стала передаваться не только устно или жестами. Умение читать и писать стало признаком грамотности людей. Выражение мыслей в письменной форме открыло возможность накапливать человеческие знания в форме рукописей и рукописных книг, т.е. передавать сокровища человеческой мысли от одного поколения к другому. Изобретение печатных станков в 15 веке открыло возможность издания книг и широкого распространения шедевров человеческой мысли. Изобретение в 19-начале 20 веков телеграфа, телефона, радио и телевидения открыло перед людьми возможность передачи информации на любые расстояния с огромной скоростью. Совершенно новые возможности для поиска и обработки информации открыло перед людьми изобретение в середине 20 века ЭВМ.
Передача информации: жесты, мимика, речь, наскальные рисунки, книги, телеграф, телефон, радио, телевидение, ЭВМ.
Обработка или преобразование информации: фотообработка (сжатие снимаемого на пленку изображения во времени.), телефонная обработка информации, математическая формула (например, нахождение корня из числа. Здесь исходная информация число, результат – корень из этого числа, а вычисление корня – процесс обработки исходной информации до получения результата). Обработкой информации занимается мозг человека, различные технические устройства: микрокалькулятор, игровые автоматы, ЭВМ и др.
Конечно, мозг человека уступает возможностям технических устройств по восприятию и переработке информации. Например, в физике, в процессе эксперимента, который длится некоторое продолжительное время, происходит весьма быстрое изменение сразу многих параметров: температуры, напряжения, частоты колебаний, скорости течения химической реакции и т.д. Для того чтобы уследить за всеми изменениями, потребуется не одна, а несколько пар глаз. Кроме того, эти изменения могут происходить с большой скоростью, так что человек просто не в силах бывает уследить за ними. Если же вся система всевозможных датчиков присоединена к ЭВМ, то она четко фиксирует ход процесса в удобной для человека форме (например, в виде таблиц).
Преобразуя информацию, человеческий мозг и технические устройства ее кодируют. Теория кодирования и древнейшее искусство тайнописи – искусство криптографии – близки друг к другу. Над разработкой различных шрифтов трудились многие ученые: философ Ф.Бэкон, математики Д.Кордано, Д.Валлис. Естественно, что с развитием методов шифровки развивались приемы расшифровки, или криптоанализа. Например, французский математик Ф.Виет (1540-1603) нашел ключ к шифру, которым пользовались испанцы во время войны с французами, и даже сумел проследить за всеми его изменениями. В середине 19 века ситуация изменилась. Появились телефон и искровой телеграф, что поставило перед учеными и инженерами проблему создания теории связи, и, главное, в первую очередь новой теории кодирования.
Первой ориентированной на технику системой кодирования оказалась азбука Морзе, где использовалось двоичное кодирование: точка, тире (короткие и длинные импульсы).
В современной вычислительной технике информация кодируется с помощью сигналов двух видов: высокое или низкое напряжение (двоичное кодирование). Принято обозначать одно состояние цифрой 0 (низкое напряжение), а другое – цифрой 1 (высокое напряжение). Эти цифры 0 и 1 называются битами (от англ. bit – binary digit – двоичная цифра).
При двоичном кодировании текстовой информации каждому символу сопоставляется его код – последовательность из фиксированного количества нулей и единиц. Каждому символу соответствует последовательность из 8 нулей и единиц, называемая байтом (англ. byte). Всего существует разных последовательностей из 8 нулей и единиц (от (00000000)2 до (11111111)2 ) – это позволяет закодировать 256 различных символов (например, большие и малые буквы русского и латинского алфавитов, цифры, знаки препинания и т.д.)
В настоящее время используются 2 международные системы кодирования символьной информации (алфавит английский):
EBCDIC (расширенный двоично кодированный десятичный код);
ASCII (американский стандартный код для обмена информацией).
Для латинского и русского алфавитов используется отечественный аналог данных кодов:
ДКОИ-8 (Двоичный код обмена информации);
КОИ-8 (код обмена информацией).
Буква латинская | ДКОИ-8 | КОИ-8 |
А | 11000001 | 01000001 |
Коды различных букв различны
Пример: закодировать “МИРУ МИР”
Буква | код |
| буква | код |
М | 11101101 |
| И | 11101001 |
Р | 11110010 |
| У | 11110101 |
Пробел (пустой промежуток) | 00100000 |
Получим последовательность из 64 нулей и единиц:
1110110111101001111100101111010100100000111011011110100111110010
Т.е., чтобы закодировать эту фразу понадобится 64 бита или 8 байт памяти.
Более крупные единицы информации:
1 Кбайт (1 килобайт) = 210 байт = 1024 байт 1000 байт = 103 байт
1 Мбайт (1 мегабайт) = 220 байт = 10242 байт = 1048576 байт 1000000 байт = 106 байт
1 Гбайт (1 гигабайт) =230 байт = 10243 байт 1000000000 байт = 109 байт
В КОИ-8 каждая буква, знак препинания, пробел – это 1 байт. На страницу учебника помещается 48 строк, в каждой строке – примерно 60 знаков (60 байт). Таким образом, полностью заполненная страница нашего учебника имеет информационный объем 48*60 = 2880 байт 2,9Кбайта. А если в книге 250 страниц, то примерно 250*2,9=725 Кбайт 0,7 Мбайт. В БОЛЬШОЙ СОВЕТСКОЙ ЭНЦИКЛОПЕДИИ примерно 120 Мбайт информации. Один цветной кадр телевизора содержит около 1 мегабайта информации, а 1,5 часовой цветной фильм (при частоте 25 кадров в секунду) – 135 гигабайт.
- Математика и информатика Учебное пособие
- Содержание:
- §1. Математические предложения и доказательства.
- §2. Элементы теории множеств.
- П.2 Подмножество. Основные числовые множества.
- П.3 Операции над множествами.
- П.4 Диаграммы Эйлера-Венна.
- § 3. Декартово произведение множеств. Соответствия. Бинарные отношения и их свойства. Отображения.
- § 4. Элементы комбинаторики. Соединения без повторений и с повторениями. Правила суммы и произведения.
- П.1 Соединения без повторений
- П.2 Соединения с повторениями
- П.3. Правила суммы и произведения
- § 5. Элементы теории вероятностей. П.1 Классическое и статистическое определения вероятности.
- П.2 Сумма событий. Теорема сложения вероятностей.
- П.3 Произведение событий. Теорема умножения вероятностей.
- П.4 Формула полной вероятности. Формула Байесса. Формула Бернулли.
- Вопрос 2.Шкалы измерения
- Методы первичной статистической обработки результатов эксперимента
- Выборочное среднее
- Дисперсия
- § 9. Информация и информационные процессы п.1. Понятие об информации. Носители информации. Количественная мера информации. Кодирование информации
- П.2. Понятие о системах счисления. Системы счисления, применяемые в цифровых эвм
- Системы счисления, применяемые в цифровых эвм
- П.3. Перевод чисел из одной с.С. В другую
- П.4. Арифметика двоичных чисел
- Задачи для самостоятельной работы
- §11 Алгоритм и его свойства. Методика составления алгоритмов. П.1. Понятие алгоритма. Свойства алгоритмов. Способы задания алгоритмов.
- П.2.Типы алгоритмов.
- Следование
- Цикл – до(Рис. 58)
- Цикл с параметром(Рис. 59)
- П.3 Базовые алгоритмические структуры
- П.4.Основные этапы решения задач на эвм.