Билет № 1
1. Понятие информации. Виды информации. Роль информации в живой природе и в жизни людей. Язык как способ представления информации: естественные и формальные языки. Основные информационные процессы: хранение, передача и обработка информации.
2. Определение результата выполнения алгоритма по его блок-схеме, записи на естественном языке или записи на языке программирования. 1. Понятие информации. Виды информации. Роль информации в живой природе и в жизни людей. Язык как способ представления информации: естественные и формальные языки. Основные информационные процессы: хранение, передача и обработка информации.
Понятие «информация».
Информатика – это наука, изучающая совокупность методов и средств сбора, хранения, передачи и обработки информации. Само слово «информация» происходит от латинского слова informatio, что в переводе означает сведение, разъяснение, ознакомление. Понятие «информация» является базовым в курсе информатики, невозможно дать его определение через другие, более «простые» понятия.
В геометрии, например, невозможно выразить содержание базовых понятий «точка», «луч», «плоскость» через более простые понятия. Информация относится к фундаментальным, неопределяемым понятиям науки информатика.
^
текстов, рисунков, чертежей, фотографий;
световых или звуковых сигналов;
радиоволн;
электрических и нервных импульсов;
магнитных записей;
жестов и мимики;
запахов и вкусовых ощущений;
хромосом, посредством которых передаются по наследству признаки и свойства организмов, и т.д.
^
По способу передачи:
дискретная;
аналоговая.
По форме представления:
текстовая;
символьная,
графическая;
музыкальная и др.
По способу восприятия:
звуковая;
зрительная;
обонятельная;
осязательная;
вкусовая.
По степени значимости:
личная;
специальная;
общественная.
^
понятность;
полнота;
точность;
достоверность;
актуальность;
полезность.
Человек - существо социальное, для общения с другими людьми он должен обмениваться с ними информацией, причем обмен информацией всегда производится на определенном языке — русском, английском и так далее. Участники дискуссии должны владеть тем языком, на котором ведется общение, тогда информация будет понятной всем участникам обмена информацией.
Информация должна быть полезной, тогда дискуссия приобретает практическую ценность. Бесполезная информация создает информационный шум, который затрудняет восприятие полезной информации. Примерами передачи и получения бесполезной информации могут служить некоторые конференции и чаты в Интернете.
Широко известен термин «средства массовой информации» (газеты, радио, телевидение), которые доводят информацию до каждого члена общества. Такая информация должна быть достоверной и актуальной. Недостоверная информация вводит членов общества в заблуждение и может быть причиной возникновения социальных потрясений. Неактуальная информация бесполезна и поэтому никто, кроме историков, не читает прошлогодних газет.
Для того чтобы человек мог правильно ориентироваться в окружающем мире, информация должна быть полной и точной. Задача получения полной и точной информации стоит перед наукой. Овладение научными знаниями в процессе обучения позволяют человеку получить полную и точную информацию о природе, обществе и технике.
^
Нормальное функционирование живых организмов невозможно без получения и использования информации об окружающей среде. Целесообразное поведение живых организмов строится на основе получения информационных сигналов разной
| Билет № 2
1. Измерение информации: содержательный и алфавитный подходы. Единицы измерения информации.
2. Создание и редактирование текстового документа (исправление ошибок, удаление или вставка текстовых фрагментов), в том числе использование элементов форматирования текста (установка параметров шрифта и абзаца, внедрение заданных объектов в текст).
1. Измерение информации: содержательный и алфавитный подходы. Единицы измерения информации.
Как измерить информацию? Часто мы говорим, что, прочитав статью в журнале или просмотрев новости, не получили никакой информации, или наоборот, краткое сообщение может оказаться для нас информативным. В то же время для другого человека та же самая статья может оказаться чрезвычайно информативной, а сообщение — нет. Информативными сообщения являются тогда, когда они новы, понятны, своевременны, полезны. Но то, что для одного понятно, для другого — нет.
Вопрос «как измерить информацию?» очень непростой. Существует два подхода к измерению количества информации. Первый подход называется содержательным. В нем информация рассматривается с субъективной точки зрения, т.е. с точки зрения конкретного человека. В этом случае количество информации в сообщении не равно нулю, если сообщение пополняет знания человека. Второй подход называется алфавитным. Этот способ не связывает количество информации с содержанием сообщения, и называется он алфавитным подходом. Алфавитный подход является объективным способом измерения информации в отличие от субъективного, содержательного, подхода. Следовательно, при алфавитном подходе к измерению информации количество информации от содержания не зависит. Количество информации зависит от объема текста (то есть от числа знаков в тексте).
Содержательный подход к измерению информации
Если рассматривать информацию с субъективной точки зрения, то информация – это знания человека. Отсюда следует вывод, что сообщение информативно (содержит ненулевую информацию), если оно пополняет знания человека. Например, прогноз погоды на завтра – информативное сообщение, а сообщение о вчерашней погоде неинформативно: нам это уже известно.
Нетрудно понять, что информативность одного и того же сообщения может быть разной для разных людей. Например: 2×2=4 информативно для первоклассника, изучающего таблицу умножения, и неинформативно для старшеклассника. Если сообщение написано на непонятном человеку языке, оно тоже не будет нести информацию.
Сообщение несет информацию для человека, если содержащиеся в нем сведения являются для него новыми и понятными
Для измерения информации нужна единица измерения, тогда мы сможем определять, в каком сообщении информации больше, в каком меньше. Единица измерения информации называется «бит». Её определение звучит так:
Сообщение, уменьшающее неопределенность знаний в два раза, несет 1 бит информации.
Что такое «неопределенность знаний»? Лучше всего это пояснить на примерах. Допустим, вы бросаете монету, загадывая, что выпадет: орел или решка? Есть всего два варианта возможного результата бросания монеты. Причем, ни один из этих вариантов не имеет преимущества перед другим. В таком случае говорят, что они равновероятны. Так вот, в этом случае перед подбрасыванием монеты неопределенность знаний о результате равна двум.
Игральный кубик с шестью гранями может с равной вероятностью упасть на любую из них. Значит, неопределенность знаний о результате бросания кубика равна шести. Следовательно, можно сказать так:
Неопределенность знаний о некотором событии – это количество возможных результатов события
Вернемся к примеру с монетой. После того, как вы бросили монету и посмотрели на нее, вы получили зрительное сообщение, что выпал, например, орел. Произошло одно из двух возможных событий. Неопределенность знаний уменьшилась в два раза: было два варианта, остался один. Значит, узнав результат бросания монеты, вы получили 1 бит информации.
Сообщение о том, что произошло одно событие из двух равновероятных, несет один бит информации.
Рассмотрим, как можно подсчитать количество информации в сообщении, используя содержательный подход. Данный подход применяется в тех случаях, когда речь идет о том, что произошло одно из конечного множества (N) возможных событий.
Пусть в некотором сообщении содержатся сведения о том, что произошло одно из N равновероятных (равновозможных) событий. Тогда количество информации i, заключенное в этом сообщении, и число событий N связаны формулой:
2i = N.
Если N равно целой степени двойки (2, 4, 8, 16 и т.д.), то вычисления легко произвести "в уме". В противном случае количество информации становится нецелой величиной, и для решения задачи придется воспользоваться таблицей логарифмов либо определять значение логарифма приблизительно (ближайшее целое число, большее).
^
Для представления текста в компьютере используется 256 различных знаков. Для кодирования 1 знака отводится 8 битов.
Кодирование – присвоение каждому символу десятичного кода от 0 до 255 или соответствующего ему двоичного кода от 00000000 до 11111111
^ – это вопрос соглашения, которое фиксируется в кодовой таблице.
В качестве международного стандарта была принята кодовая таблица ASCII (American Standard Code for Information Interchange) :
^ - коды операций (перевод строки, ввод пробела, т.е. соответствуют функциональным клавишам);
Коды с 33 по 127 – интернациональные, соответствуют символам латинского алфавита, цифрам, знакам арифметических операций, знакам препинания;
Коды с 128 по 255 – национальные, т.е. кодировка национального алфавита.
на 1 символ отводится 1 байт (8 бит), всего можно закодировать 28 = 256 символов
С 1997 года появился новый международный стандарт Unicode, который отводит для кодировки одного символа 2 байта (16 бит), и можно закодировать 65536 различных символов (Unicode включает в себя все существующие, вымершие и искусственно созданные алфавиты мира, множество математических, музыкальных, химических и прочих символов)
В настоящий момент существует пять кодировок кириллицы: КОИ-8, CP1251, CP866, ISO, Mac. Для преобразования текстовых документов из одной кодировки в другую существуют программы которые называются Конверторы
Чтобы подсчитать информационный объем текста необходимо количество информации, которое несет один символов, умножить на количество символов в тексте: I = i * K
| Билет № 3
1. Дискретное представление информации: двоичные числа; двоичное кодирование текста в памяти компьютера. Информационный объем текста.
2. Создание и обработка графических изображений средствами графического редактора. Простейшая обработка цифрового изображения. 1. Дискретное представление информации: двоичные числа; двоичное кодирование текста в памяти компьютера. Информационный объем текста.
Человек воспринимает информацию с помощью органов чувств. При этом он стремится зафиксировать ее и представить в форме, доступной другим. Форма представления информации может быть различной. Один и тот же объект, например дом, можно изобразить графически в виде рисунка или выполнить чертеж в трех проекциях. Его можно описать в стихах или с помощью математических формул.
Форма представления информации зависит от цели, для которой она служит. Например. Запись решения квадратного уравнения на алгоритмическом языке или языке программирования в корне отличается от той формы записи, которая используется на уроках алгебры. Рассмотрим представления чисел.
Числа записываются с использованием особых знаковых систем, которые называются системами счисления. Все системы счисления делятся на позиционные и непозиционные.
Система счисления – это способ записи чисел с помощью специальных знаков – цифр.
Числа: 123, 45678, 1010011, CXL
Цифры: 0, 1, 2, … I, V, X, L, …
Алфавит – это набор цифр. {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}
Типы систем счисления:
непозиционные – значение цифры не зависит от ее места (позиции) в записи числа;
позиционные – зависит от ее места (позиции) в записи числа. Непозиционные системы
Унарная – одна цифра обозначает единицу (1 день, 1 камень, 1 баран, …)
Римская: I – 1 (палец), V – 5 (раскрытая ладонь, 5 пальцев), X – 10 (две ладони), L – 50, C – 100 (^ ), D – 500 (Demimille), M – 1000 (Mille)
Позиционная система: значение цифры определяется ее позицией в записи числа.
Десятичная система: первоначально – счет на пальцах изобретена в Индии, заимствована арабами, завезена в Европу
Алфавит: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9 Cистемы счисления в компьютерах
В XVII веке немецкий ученый Готфрид Лейбниц предложил уникальную систему представления чисел с помощью всего двух символов – 0 и 1. Сегодня этот способ повсеместно используется в технике, в том числе и в компьютерах и называется дискретным.
Компьютер способен хранить только дискретно представленную информацию. Его память, как бы велика она ни была, состоит из отдельных битов, а значит, по своей сути дискретна.
Язык компьютера — это язык двоичных чисел - двоичный алфавит, имеющий два знака, 1 и 0. Этим знакам в логике и технике приводят в соответствие понятия — да и нет, истина и ложь, включено и выключено. Такой алфавит называют еще бинарным. В соответствии с этим введена и наименьшая единица информации — бит (англ. bit, от binary — двоичный и digit — знак). Одного бита информации достаточно, чтобы передать слово "да" или "нет", закодировать, например, состояние электролампочки. Кстати, на некоторых выключателях пишут "1 —включено" и "0 — выключено". Взгляд на выключатель снимает для нас неопределенность в его состоянии. При этом мы получаем количество информации, равное одному биту.
^
Двоичная кодировка (двоичная система счисления) имеет ряд преимуществ перед другими системами кодирования:
Для ее реализации нужны технически не сложные элементы с двумя возможными состояниями (есть ток — нет тока, намагничен — не намагничен и т.д.).
Представление информации посредством только двух состояний надежно и помехоустойчиво.
Возможно применение особой алгебры логики (булевой алгебры) для выполнения логических преобразований информации.
Двоичная арифметика намного проще десятичной. Двоичные таблицы сложения и умножения предельно просты.
Обработка информации в компьютере основана на обмене электрическими сигналами между различными устройствами машины. Признак наличия сигнала можно обозначить цифрой 1, признак отсутствия — цифрой 0.
Например, если из 256 одинаковых, но разноцветных шаров наугад выбрали один, то сообщение о том, что выбрали красный шар, несет 8 бит информации (28=256). Для угадывания числа (наверняка) в диапазоне от 0 до 100, если разрешается задавать только двоичные вопросы (с ответом "да" или "нет"), нужно задать 7 вопросов, так как объем информации о загаданном числе больше 6 и меньше 7 (26<100>27)
Количество информации i, содержащейся в сообщении о том, что произошло одно из N равновероятных событий, определяется из решения показательного уравнения: 2i=N
Алфавитный подход к измерению информации
Алфавитный подход основан на том, что всякое сообщение можно закодировать с помощью конечной последовательности символов некоторого алфавита.
Алфавит — упорядоченный набор символов, используемый для кодирования сообщений на некотором языке.
Мощность алфавита — количество символов алфавита.
Двоичный алфавит содержит 2 символа, его мощность равна двум. Сообщения, записанные с помощью символов ASCII, используют алфавит из 256 символов. Сообщения, записанные по системе UNICODE, используют алфавит из 65 536 символов.
Чтобы определить объем информации в сообщении при алфавитном подходе, нужно последовательно решить задачи:
Определить количество информации (i) в одном символе по формуле 2i = N, где N — мощность алфавита
Определить количество символов в сообщении (m)
Вычислить объем информации по формуле: I = i * K.
Количество информации во всем тексте (I), состоящем из K символов, равно произведению информационного веса символа на К:
I = i * К.
Эта величина является информационным объемом текста.
Например, если текстовое сообщение, закодированное по системе ASCII, содержит 100 символов, то его информационный объем составляет 800 бит.
2i = 256 I = 8
I = 8 * 100 = 800 Для двоичного сообщения той же длины информационный объем составляет 100 бит. Необходимо так же знать единицы измерения информации и соотношения между ними.
Единицы измерения информации
Как уже было сказано, основная единица измерения информации — бит.
8 бит составляют 1 байт. Наряду с байтами для измерения количества информации используются более крупные единицы: 1 Кбайт (один килобайт) = 210 байт = 1024 байта; 1 Мбайт (один мегабайт) = 210 Кбайт = 1024 Кбайт; 1 Гбайт (один гигабайт) = 210 Мбайт = 1024 Мбайт. В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как: 1 Терабайт (Тб) = 1024 Гбайт = 240 байта, 1 Петабайт (Пб) = 1024 Тбайта = 250 байта.
| 100> |