3W
Главная | | Регистрация | Вход
 
Четверг, 19.06.2025, 02:53
Приветствую Вас Гость | RSS
Поиск
Реклама
Статистика



Онлайн всего: 1
Гостей: 1
Пользователей: 0
Главная » 2011 » Январь » 18 » Ответы на билеты по информатике 2006-2008 гг. (базовый уровень)

20:03
Ответы на билеты по информатике 2006-2008 гг. (базовый уровень)
Билет 1

Понятие информации. Виды информационных процессов. Поиск и систематизация

информации. Хранение информации; выбор способа хранения информации. Передача

информации в социальных, биологических и технических системах.

1. Компьютер — это электронный прибор, предназначенный для работы с информацией

посредством автоматизированной регистрации, хранения, приема, передачи,

обработки и воспроизведения данных.

Понятие данных. Все явления природы сопровождаются энергетическим обменом. В его

ходе тела выделяют и поглощают энергию. Энергетический обмен свойствен всем

известным природным процессам: физическим, химическим, биологическим и их

комбинациям.

Энергия распространяется в форме сигналов. При взаимодействии сигналов с

веществом происходит изменение состояний и свойств материальных тел. Если

изменение зафиксировано, говорят о том, что произошла регистрация сигнала. Так

образуются данные. Данные -это зарегистрированные сигналы любой физической

природы.

Текст на бумаге — это зарегистрированный результат взаимодействия бумаги и

красителя. Запись на магнитной ленте — это зарегистрированные результаты

изменения магнитного поля вблизи записывающей магнитной головки. Кратеры на Луне

— это зарегистрированные результаты взаимодействия космических тел с ее

поверхностью. Кратеры на Земле — это зарегистрированные результаты активности

внутреннего вещества планеты.

Информация. Когда говорят о том, что компьютеры предназначены для работы с

информацией, имеют в виду, что информация содержится в данных. Компьютеры

работают только с данными, а информация образуется в момент взаимодействия

данных с информационными методами.

Слово «информация» происходит от латинского слова informatio, что в переводе

означает сведение, разъяснение, ознакомление. Понятие «информация» является

базовым в курсе информатики, невозможно дать его определение через другие, более

«простые» понятия. В геометрии, например, невозможно выразить содержание базовых

понятий «точка», «луч», «плоскость» через более простые понятия. Содержание

основных, базовых понятий в любой науке должно быть пояснено на примерах или

выявлено путем их сопоставления с содержанием других понятий.

В случае с понятием «информация» проблема его определения еще более сложная, так

как оно является общенаучным понятием. Данное понятие используется в различных

науках (информатике, кибернетике, биологии, физике и др.), при этом в каждой

науке понятие «информация» связано с различными системами понятий.

Информация в биологии. В биологии, которая изучает живую природу, понятие

«информация» связывается с целесообразным поведением живых организмов. Такое

поведение строится на основе получения и использования организмом информации об

окружающей среде.

Понятие «информация» в биологии используется также в связи с исследованиями

механизмов наследственности. Генетическая информация передается по наследству и

хранится во всех клетках живых организмов. Гены представляют собой сложные

молекулярные структуры, содержащие информацию о строении живых организмов.

Последнее обстоятельство позволило проводить научные эксперименты по

клонированию, то есть созданию точных копий организмов из одной клетки.

Информация в кибернетике. В кибернетике (науке об управлении) понятие

«информация» связано с процессами управления в сложных системах (живых

организмах или технических устройствах). Жизнедеятельность любого организма или

нормальное функционирование технического устройства зависит от процессов

управления, благодаря которым поддерживаются в необходимых пределах значения их

параметров. Процессы управления включают в себя получение, хранение,

преобразование и передачу информации.

Информация в обществе. Человек – существо социальное, для общения с другими

людьми он должен обмениваться с ними информацией. В обыденной жизни информация –

это сведения, сообщение, осведомленность о положении дел.

Таким образом, информация в информатике – это:

Информация – это знания человека (декларативные – «Я знаю, что…» и процедурные –

«Я знаю как…»), которые он получает из окружающего мира и которые реализует с

помощью вычислительной техники.

2. Информационные процессы.

Процессы, связанные со сбором, хранением, поиском, обработкой, кодированием и

передачей информации, называют информационными процессами.

Поиск информации – это процесс получения информации из внешнего мира и

приведение ее к стандарту для данной информационной системы. Обмен информацией

между воспринимающей ее системой и окружающей средой осуществляется посредством

сигналов или знаков.

Сигналы можно разделить на несколько типов:

- по физической природе (электромагнитный, световой, тепловой, звуковой,

механический, биохимический);

- по способу восприятия (зрительный, слуховой, осязательный, вкусовой, болевой,

физиологический).

Знаками можно считать алфавит любого языка, знаки языка жестов, любые коды или

шифры, ноты и т.д.

Обработка информации – это получение одних информационных объектов из других

путем выполнения некоторых действий

Входная информация

Обработка информации

Выходная информация

Хранение информации – это ее накопление на различных носителях.

Носитель информации – среда для записи и хранения информации:

- любой материальный предмет;

- волны различной природы;

- акустические носители;

- электромагнитные носители;

- гравитационные носители;

- компьютерные носители.

Носители информации характеризуются информационной емкостью, то есть количеством

информации, которое они могут хранить. Наиболее информационно емкими являются

молекулы ДНК, которые имеют очень малый размер и плотно упакованы. Это позволяет

хранить огромное количество информации (до 1021 битов в 1 см3), что дает

возможность организму развиваться из одной-единственной клетки, содержащей всю

необходимую генетическую информацию.

Современные микросхемы памяти позволяют хранить в 1 см3 до 1010 битов

информации, однако это в 100 миллиардов раз меньше, чем в ДНК. Можно сказать,

что современные технологии пока существенно проигрывают биологической эволюции.

Однако если сравнивать информационную емкость традиционных носителей информации

(книг) и современных компьютерных носителей, то прогресс очевиден. На каждом

гибком магнитном диске может храниться книга объемом около 600 страниц, а на

жестком магнитном диске или DVD - целая библиотека, включающая десятки тысяч

книг.

Большое значение имеет надежность и долговременность хранения информации.

Большую устойчивость к возможным повреждениям имеют молекулы ДНК, так как

существует механизм обнаружения повреждений их структуры (мутаций) и

самовосстановления.

Надежность (устойчивость к повреждениям) достаточно высока у аналоговых

носителей, повреждение которых приводит к потери информации только на

поврежденном участке. Поврежденная часть фотографии не лишает возможности видеть

оставшуюся часть, повреждение участка магнитной ленты приводит лишь к временному

пропаданию звука и так далее.

Цифровые носители гораздо более чувствительны к повреждениям, даже утеря одного

бита данных на магнитном или оптическом диске может привести к невозможности

считать файл, то есть к потере большого объема данных. Именно поэтому необходимо

3. Передача информации в биологических системах. Общими для живой природы

являются прнципы наследования, связанные с передачей информации от предков

потомкам через данные, хранящиеся в цепочках ДНК.

Передача информации в социальных системах. Символьная информация передается в

речевой и письменных формах. В тех случаях, когда человеку недостаточно

естественных методов для работы с данными, он может использовать искусственные

методы. Широко известно использование телескопов, микроскопов, радиоприемников,

телевизионных приемников, магнитофонов и других устройств. Например, человек не

обладает естественными органами чувств, способными регистрировать радиоволны. В

этом случае он использует радиоприемник, с помощью которого получает информацию

из данных, регистрируемых антенной.

Передача информации в технических системах. Любая техническая система передачи

информации состоит из источника, приемника, устройств кодирования и

декодирования и канала связи. Под кодированием понимается преобразование

информации, идущей от источника, в форму, пригодную для ее передачи по каналу

связи. Декодирование – это обратное преобразование. Передача информации

происходит по следующей схеме:

Информация

Канал связи

Помехи

Информация

Виды информации:

1) аналоговая –непрерывная (воспринимается человеком);

2) Дискретная – скачкообразная (воспринимается вычислительной техникой –

информация кодируется в двоичную форму, а затем декодируется в текст,

изображение и звук).

2

Понятие о кодировании информации. Выбор способа представления информации в

соответствии с поставленной задачей. Универсальность дискретного (цифрового)

представления информации. Двоичное кодирование.

2 билет

1. Кодирование информации

Преобразование информации из одной формы представления (знаковой системы) в

другую называется кодированием.

Средством кодирования служит таблица соответствия знаковых систем, которая

устанавливает взаимно однозначное соответствие между знаками или группами знаков

двух различных знаковых систем.

В процессе обмена информацией часто приходится производить операции кодирования

и декодирования информации. При вводе знака алфавита в компьютер путем нажатия

соответствующей клавиши на клавиатуре происходит кодирование знака, то есть

преобразование его в компьютерный код. При выводе знака на экран монитора или

принтер происходит обратный процесс - декодирование, когда из компьютерного кода

знак преобразуется в его графическое изображение.

2. Выбор способа представления информации в соответствии с поставленной задачей.

Язык как знаковая система

Для обмена информацией с другими людьми человек использует естественные языки

(русский, английский, китайский и др.), то есть информация представляется с

помощью естественных языков. В основе языка лежит алфавит, то есть набор

символов (знаков), которые человек различает по их начертанию. В основе русского

языка лежит кириллица, содержащая 33 знака, английский язык использует латиницу

(26 знаков), китайский язык использует алфавит из десятков тысяч знаков

(иероглифов).

Последовательности символов алфавита в соответствии с правилами грамматики

образуют основные объекты языка — слова. Правила, согласно которым образуются

предложения из слов данного языка, называются синтаксисом. Необходимо отметить,

что в естественных языках грамматика и синтаксис языка формулируются с помощью

большого количества правил, из которых существуют исключения, так как такие

правила складывались исторически.

Наряду с естественными языками были разработаны формальные языки (системы

счисления, язык алгебры, языки программирования и др.). Основное отличие

формальных языков от естественных состоит в наличии строгих правил грамматики и

синтаксиса.

Например, системы счисления можно рассматривать как формальные языки, имеющие

алфавит (цифры) и позволяющие не только именовать и записывать объекты (числа),

но и выполнять над ними арифметические операции по строго определенным правилам.

Некоторые языки используют в качестве знаков не буквы и цифры, а другие символы,

например химические формулы, ноты, изображения элементов электрических или

логических схем, дорожные знаки, точки и тире (код азбуки Морзе) и др.

Знаки могут -иметь различную физическую природу. Например, для представления

информации с использованием языка в письменной форме используются знаки, которые

являются изображениями на бумаге или других носителях, в устной речи в качестве

знаков языка используются различные звуки (фонемы), а при обработке текста на

компьютере знаки представляются в форме последовательностей электрических

импульсов (компьютерных кодов).

3. Двоичное кодирование информации

В компьютере для представления информации используется двоичное кодирование, так

как удалось создать надежно работающие технические устройства, которые могут со

стопроцентной надежностью сохранять и распознавать не более двух различных

состояний (цифр):

· электромагнитные реле (замкнуто/разомкнуто), широко использовались в

конструкциях первых ЭВМ;

· участок поверхности магнитного носителя информации

(намагничен/размагничен);

· участок поверхности лазерного диска (отражает/не отражает);

· триггер (см. п. 3.7.3), может устойчиво находиться в одном из двух

состояний, широко используется в оперативной памяти компьютера.

Все виды информации в компьютере кодируются на машинном языке, в виде логических

последовательностей нулей и единиц.

Цифры двоичного кода можно рассматривать как два равновероятных состояния

(события). При записи двоичной цифры реализуется выбор одного из двух возможных

состояний (одной из двух цифр) и, следовательно, она несет количество

информации, равное 1 биту.

Даже сама единица измерения количества информации бит (bit) получила свое

название от английского словосочетания BInary digiT (двоичная цифра).

Важно, что каждая цифра машинного двоичного кода несет информацию в 1 бит. Таким

образом, две цифры несут информацию в 2 бита, три цифры — в 3 бита и так далее.

Количество информации в битах равно количеству цифр двоичного машинного кода.

Преобразование графической и звуковой информации из аналоговой формы в

дискретную производится путем дискретизации, то есть разбиения непрерывного

графического изображения и непрерывного (аналогового) звукового сигнала на

отдельные элементы. В процессе дискретизации производится кодирование, то есть

присвоение каждому элементу конкретного значения в форме кода.

Дискретизация — это преобразование непрерывных изображений и звука в набор

дискретных значений в форме кодов.

Двоичное кодирование текстовой информации. Традиционно для кодирования одного

символа используется количество информации, равное 1 байту, то есть I = 1 байт

= 8 битов.

Для кодирования одного символа требуется 1 байт информации.

Если рассматривать символы как возможные события, то можно вычислить, какое

количество различных символов можно закодировать:

N = 2I= 28 = 256.

Такое количество символов вполне достаточно для представления текстовой

информации, включая прописные и строчные буквы русского и латинского алфавита,

цифры, знаки, графические символы и пр.

Кодирование заключается в том, что каждому символу ставится в соответствие

уникальный десятичный код от 0 до 255 или соответствующий ему двоичный код от

00000000 до 11111111. Таким образом, человек различает символы по их

начертаниям, а компьютер - по их кодам.

3 Билет

Вероятностный и алфавитный подходы к измерению информации. Единицы измерения

информации. Скорость передачи информации. Пропускная способность канала связи.

Информация и знания. Человек получает информацию из окружающего мира с помощью

органов чувств, анализирует ее и выявляет существенные закономерности с помощью

мышления, хранит полученную информацию в памяти. Процесс систематического

научного познания окружающего мира приводит к накоплению информации в форме

знаний (фактов, научных теорий и так далее). Таким образом, с точки зрения

процесса познания информация может рассматриваться как знания.

Информацию, которую получает человек, можно считать мерой уменьшения

неопределенности знаний. Если некоторое сообщение приводит к уменьшению

неопределенности наших знаний, то можно говорить, что такое сообщение содержит

информацию.

1. Уменьшение неопределенности знаний (вероятностный подход). Подход к

информации как мере уменьшения неопределенности знаний позволяет количественно

измерять информацию, что чрезвычайно важно для информатики. Рассмотрим вопрос об

определении количества информации более подробно на конкретных примерах.

Пусть у нас имеется монета, которую мы бросаем на ровную поверхность. С равной

вероятностью произойдет одно из двух возможных событий — монета окажется в одном

из двух положений: «орел» или «решка».

Можно говорить, что события равновероятны, если при возрастающем числе опытов

количества выпадений «орла» и «решки» постепенно сближаются. Например, если мы

бросим монету 10 раз, то «орел» может выпасть 7 раз, а решка — 3 раза, если

бросим монету 100 раз, то «орел» может выпасть 60 раз, а «решка» — 40 раз, если

бросим монету 1000 раз, то «орел» может выпасть 520 раз, а «решка» — 480 и так

далее.

В итоге при очень большой серии опытов количества выпадений «орла» и «решки»

практически сравняются.

Перед броском существует неопределенность наших знаний (возможны два события),

и, как упадет монета, предсказать невозможно. После броска наступает полная

определенность, так как мы видим (получаем зрительное сообщение), что монета в

данный момент находится в определенном положении (например, «орел»). Это

сообщение приводит к уменьшению неопределенности наших знаний в два раза, так

как до броска мы имели два вероятных события, а после броска — только одно, то

есть в два раза меньше.

Категория: Рефераты | Просмотров: 2208 | Добавил: IIapeHek | Рейтинг: 0.0/0
Всего комментариев: 0
Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]
Меню сайта
Категории раздела
Рефераты [209]
Биографии [59]
Статьи [137]
Сочинения [25]
Краткое содержание произведений [35]
Реклама
Форма входа

Copyright MyCorp © 2025Создать бесплатный сайт с uCoz