понятие информации виды информации роль информации и живой природе и в жизни людей

Роль информации в живой природе и в жизни людей

Экзаменационные билеты по информатике. 9 класс.

Билет № 1

1. Понятие информации. Виды информации. Роль информации в живой природе и в жизни людей. Язык как способ представления информации: естественные и формальные языки. Основные информационные процессы: хранение, передача и обработка информации.

2. Определение результата выполнения алгоритма по его блок-схеме, записи на естественном языке или записи на языке программирования.

1. Понятие информации. Виды информации. Роль информации в живой природе и в жизни людей. Язык как способ представления информации: естественные и формальные языки. Основные информационные процессы: хранение, передача и обработка информации.

Понятие «информация».

Информатика – это наука, изучающая совокупность методов и средств сбора, хранения, передачи и обработки информации. Само слово «информация» происходит от латинского слова informatio, что в переводе означает сведение, разъяснение, ознакомление. Понятие «информация» является базовым в курсе информатики, невозможно дать его определение через другие, более «простые» понятия.

В геометрии, например, невозможно выразить содержание базовых понятий «точка», «луч», «плоскость» через более простые понятия. Информация относится к фундаментальным, неопределяемым понятиям науки информатика.

В различных отраслях человеческой деятельности «информация» понимается по-разному:

ü в быту информацией называют любые данные, сведения, знания, которые кого-либо интересуют. Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п.;

ü в философии – отраженное многообразие, возникающее в результате взаимодействии объектов;

ü в теории информациипод информацией понимают сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний;

ü в информатикеинформацию можно рассматривать как отражение предметного мира с помощью знаков и символов.

ü Математика включает в это понятие те сведения, которые человек не получал, а сам создал с помощью умозаключений.

ü Биологияотносит к информации те данные, которые хранит в себе человек с момента рождения до смерти (генетический код).

ü В кибернетикепонятие «информация» связано с процессами управления в сложных системах.

Так что же такое информация? Синонимами слова «информация» являются следующие слова: «знания», «сведения», «новости» и др.
Знания, сведения можно разделить на две группы.
Декларативные знания (декларация — это утверждение, сообщение) можно начать со слов «Я знаю, что. «. Например:

Вторая группа знаний может начинаться словами «Я знаю, как. «, это процедурныезнания. Например,

Но любые ли знания, сведения нужны человеку? Сообщения, которые несут новые знания человеку, называются информативными.

Информация может существовать в виде:

ü текстов, рисунков, чертежей, фотографий;

ü световых или звуковых сигналов;

ü электрических и нервных импульсов;

ü магнитных записей;

ü запахов и вкусовых ощущений;

ü хромосом, посредством которых передаются по наследству признаки и свойства организмов, и т.д.

Виды информации

По способу передачи:

По форме представления:

По способу восприятия:

По степени значимости:

Свойства информации.

Информация должна быть полезной, тогда дискуссия приобретает практическую ценность. Бесполезная информация создает информационный шум, который затрудняет восприятие полезной информации. Примерами передачи и получения бесполезной информации могут служить некоторые конференции и чаты в Интернете.

Широко известен термин «средства массовой информации» (газеты, радио, телевидение), которые доводят информацию до каждого члена общества. Такая информация должна быть достовернойиактуальной. Недостоверная информация вводит членов общества в заблуждение и может быть причиной возникновения социальных потрясений. Неактуальная информация бесполезна и поэтому никто, кроме историков, не читает прошлогодних газет.

Для того чтобы человек мог правильно ориентироваться в окружающем мире, информация должна быть полной и точной. Задача получения полной и точной информации стоит перед наукой. Овладение научными знаниями в процессе обучения позволяют человеку получить полную и точную информацию о природе, обществе и технике.

Роль информации в живой природе и в жизни людей.

Нормальное функционирование живых организмов невозможно без получения и использования информации об окружающей среде. Целесообразное поведение живых организмов строится на основе получения информационных сигналов разной физической или химической природы. Это звук, свет, запах и др.

Даже простейшие одноклеточные организмы постоянно воспринимают и используют информацию о температуре и химическом составе среды для выбора наиболее благоприятных условий существования.

Любой живой организм, в том числе человек, является носителем генетической информации, которая хранится в каждой клетке организма и передается по наследству.

Человек также существует в «море» информации, он постоянно получает информацию из окружающего мира с помощью органов чувств, хранит ее в своей памяти, анализирует с помощью мышления и обменивается информацией с другими людьми.

Источник

Информация. Понятие информации в природе. Виды информации. Формы информации и способы ее обработки в природе. Измерение информации.

ТЕМА: Информация. Понятие информации в природе. Виды информации. Формы информации и способы ее обработки в природе. Измерение информации.

Важнейшими сущностями окружающего нас мира являются вещество, энергия и информация.

Термин информация происходит от латинского informatio, что означает «сведения, разъяснения, изложение»

В обиходе информацией называют любые данные или сведения, которые кого-либо интересуют, например сообщение о каких-либо событиях, о чьей-либо деятельности и т. п. «Информировать» в этом смысле означает «сообщить нечто, неизвестное раньше».

Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертеж, радиопередача и т. п.) может содержать разное количество информации для разных людей в зависимости от их накопленных знаний, от уровня понимания этого сообщения и интереса к нему. Так, сообщение, составленное на японском языке, не несет никакой новой информации человеку, не знающему этого языка, но может быть высокоинформативным для человека, владеющего японским. Никакой новой информации не содержит и сообщение, изложен-ное на знакомом языке, если его содержание непонятно или уже известно.

Однако можно лишь утверждать, что понятие ИНФОРМАЦИЯ предполагает наличие материального носителя информации, источника информации, передатчика информации, приемника и канала связи между источником и приемником.

Это понятие используется во всех без исключения сферах: философии, естественных и гуманитарных науках, биологии, медицине и физиологии, психологии человека и животных, социологии, искусстве, технике и экономике и в повседневной жизни.

Носителем информации может быть классная доска, журнал, частицы воздуха, радиоволны, бумага, дерево, металл, камень, кассета, дискета, фотография, слайд, перфокарта, ген и т.п.

Каналом связи между приемником и источником может быть как телекоммуникационный канал, так и воздух, переносящий звуковые волны.

Всю информацию можно подразделить на:

 физиологическую и т.п.

Одновременно с этим информация по своему характеру может быть:

 статической (постоянной) или динамической (переменной);

 первичной (входной), производной (промежуточной) или выходной;

 осведомляющей или управляющей;

 объективной или субъективной.

К свойствам информации можно отнести:

Существует множество способов передачи и обработки информации. Человек может передавать информацию, используя тот или иной язык, жесты, мимику, звуки и воспринимать информацию используя любые органы чувств. Иными словами информация человеком передается, обрабатывается и принимается в форме знаков или сигналами. Сигнал может быть световым, звуковым (радиоволны), электромагнитным, биохимическим и т.д.

Сигналы можно разделить на несколько типов:

 по физической природе, на электромагнитные, световые, тепловое, звуковое, механические, биохимические

 по способу восприятия, на зрительные, слуховые, осязательные, вкусовые, болевые, физиологические.

Знаками можно считать алфавит любого языка, знаки языка жестов, любые коды или шифры, нотные значки и т.д.

Процесс обработки информации предусматривает наличие носителя информации и средства передачи информации и обработки информации.

Человек может перерабатывать информацию минимум на трех уровнях, а именно: на физиологическом (органы чувств) уровне, на уровне рационального мышления, на уровне подсознания. Кроме того человек передает наследственную информацию своим потомкам через гены.

Примеры обработки и передачи информации в живой природе:

Животные, охраняя свою территорию, оставляют пахучие метки. Обнаружив, с помощью органов обоняния, незнакомый запах, животное уходит с чужой территории.

Летучая мышь, двигаясь в темноте, испускает ультразвуковые волны, которые, отражаясь от предметов, возвращаются и воспринимаются мышью, позволяя ориентироваться в пространстве.

Обработка и передача информации из поколения в поколение используется в генетике для селекции и закрепление нужных признаков у растений и животных.

Информацию можно: создавать; принимать; комбинировать; хранить; передвать; копировать; обрабатывать; искать; воспринимать; формализовать; делить на части; измерять; использовать; распространять; упрощать; разрушать; запоминать; преобразовывать; собирать и т.д..

Информация обладает следующими свойствами:

• ценность; • понятность; • краткость

• полнота; • своевременность; • доступность; и т. д.

Информация достоверна, если она отражает истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений. Достоверная информация со временем может стать недостоверной, так как она обладает свойством устаревать, т. е. перестает отражать истинное положение дел.

Информация полна, если ее достаточно для понимания и принятия решений. Как неполная, так и избыточная информация сдерживает принятие решений или может повлечь ошибки.

Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т. п.

Ценность информации зависит от того, насколько она важна для решения зада-чи, а также от того, насколько в дальнейшем она найдет применение в каких-либо видах деятельности человека.

Только своевременно полученная информация может принести ожидаемую пользу. Одинаково нежелательны как преждевременная подача информации (когда она еще не может быть усвоена), так и ее задержка.

Если ценная и своевременная информация выражена непонятным образом, она может стать бесполезной. Информация становится понятной, если она выражена языком, на котором говорят те, кому предназначена эта информация.

Информация должна преподноситься в доступной (по уровню восприятия) форме. Поэтому одни и те же вопросы по-разному излагаются в школьных учебниках и научных изданиях.

Информацию по одному и тому же вопросу можно изложить кратко (сжато, без несущественных деталей) или пространно (подробно, многословно). Краткость ин-формации необходима в справочниках, энциклопедиях, всевозможных инструкциях.

Обработка информации — получение одних информационных объектов из других путем выполнения некоторых алгоритмов

Обработка является одной из основных операций, выполняемых над информацией, и главным средством увеличения объема и разнообразия информации.

Средства обработки информации — это всевозможные устройства и системы, созданные человечеством, и в первую очередь компьютер — универсальная машина для обработки информации.

Компьютеры обрабатывают информацию путем выполнения некоторых алгоритмов. Живые организмы и растения обрабатывают информацию с помощью своих органов и систем.

Информационные ресурсы и информационные технологии

Информационные ресурсы — это идеи человечества и указания по реализации этих идей, накопленные в форме, позволяющей их воспроизводство.

Это книги, статьи, патенты, диссертации, научно-исследовательская и опытно-конструкторская документации, технические переводы, данные о передовом производственном опыте и др.

Информационные ресурсы (в отличие от всех видов ресурсов — трудовых, энергетических, минеральных) тем быстрее растут, чем больше их расходуют.

Человечество занималось обработкой информации тысячелетиями. Первые ин-формационные технологии основывались на использовании счетов и письменности. Около пятидесяти лет назад; исключительно быстрое развитие этих технологий, что в первую очередь связано с появлением компьютеров.

В настоящее время термин информационная технология усовершенствуются в связи с использованием компьютеров для обработки информации. Информационные технологии охватывают всю вычислительную технику и технику связи, и отчасти бытовую электронику, телевидение; радиовещание. Они находят применение в промышленности, те управлении, банковской системе, образовании, здравоохранении, медицине и науке, транспорте и связи, сельском хозяйстве, социального обеспечения, служат подспорьем людям различных профессий и домохозяйкам.

Народы развитых стран осознают, что совершенствование информационных технологий представляет самую важную, хотя дорогостоящую и трудную, задачу.

В настоящее время создание крупномасштабных информационно-технологических систем является экономически возможным, это обусловливает появление национальных исследовательских зевательных программ, призванных стимулировать их разработку.

К способам представления информации можно отнести:

На разных носителях информации используются разные способы представления.

Хранить информацию можно :

 в форме знаков на бумаге, перфокартах, перфоленте, на камне, дереве, ткани, в рельефе ключа и т.п.;

 в форме электромагнитных сигналов на дисках, дискетах, кассетах,

 в форме структурных комбинаций в клетках и генах биологических объектов;

Передача информации происходит :

 в форме сигналов, как в технических устройствах, так и в общении людей, в телекоммуникациях, в жизни общества, в живых существах;

 механическим путем в общении людей и в технических устройствах.

К техническим средствам хранения, передачи и обработки информации относятся:

 аудио и видео кассеты,

 объекты телекоммуникации (радио, телевидение, телефон, телеграф, персональные компьютеры и компьютерные сети и т.п.)

ЭВМ среди множества технических средств хранения, передачи и обработки информации, занимает особое место.

Если сигнал непрерывен во времени, то его называют АНАЛОГОВЫМ, и машины, использующие такие сигналы, называют АНАЛОГОВЫМИ.

Если сигнал имеет прерывистую (дискретную) форму, он называется ЦИФРО-ВЫМ (дискретным), и машины соответственно называются ЦИФРОВЫМИ. Современные ПК относятся к ЦВМ.

Слово компьютер переводится как «вычислитель». Но современный персональный компьютер является не только машиной для произведения каких-то расчетов.

С его помощью можно создавать и воспроизводить музыкальные произведения; создавать, воспроизводить и изменять графические изображения; создавать, воспро-изводить и изменять видеоклипы; обмениваться информацией с пользователями ПК всего мира; находить нужную информацию; создавать и обрабатывать текстовую информацию.

Иными словами ПК может обрабатывать любую информацию.

Всю информацию ПК может воспринимать в форме сигналов, которые имеют только два различных состояния: есть сигнал или нет сигнала.

Этим сигналам поставлен в соответствие разряд кода, который может прини-мать только два значения: 0 или 1.

Другими словами, сигнал, который имеет только два различных состояния (есть сигнал или нет сигнала), передает БИТ информации.

Информацию можно измерять, используя биты. Однако, бит слишком мелкая единица измерения. На практике чаще применяется более крупная единица — байт,

равная восьми битам. Именно восемь бит требуется для того, чтобы закодировать любой из 256 символов (256 = 28).

1 байт информации (8 бит) может содержать 256 различных кодов от 00000000 до 11111111.

1 байта достаточно для кодирования одного знака текстовой, числовой, звуковой или графической информации.

Крупные производные единицы информации:

Источник

Билет 1 1 понятие информации виды информации роль информации в живой природе и в жизни людей язык как способ представления информации естественные и формальные языки основные информационные процессы хранение передача и обработка информации

1. Понятие информации. Виды информации. Роль информации в живой природе и в жизни людей. Язык как способ представления информации: естественные и формальные языки. Основные информационные процессы: хранение, передача и обработка информации.

Что такое «информация»

Слово «информация» происходит от латинского слова informatio, что в переводе означает сведение, разъяснение, ознакомление. Понятие «информация» является базовым в курсе информатики, невозможно дать его определение через другие, более «простые» понятия. В геометрии, например, невозможно выразить содержание базовых понятий «точка», «луч», «плоскость» через более простые понятия. Содержание основных, базовых понятий в любой науке должно быть пояснено на примерах или выявлено путем их сопоставления с содержанием других понятий.

В случае с понятием «информация» проблема его определения еще более сложная, так как оно является общенаучным понятием. Данное понятие используется в различных науках (информатике, кибернетике, биологии, физике и др.), при этом в каждой науке понятие «информация» связано с различными системами понятий.

Информация в физике. В физике мерой беспорядка, хаоса для термодинамической системы является энтропия системы, тогда как информация (антиэнтропия) является мерой упорядоченности и сложности системы. По мере увеличения сложности системы величина энтропии уменьшается, и величина информации увеличивается. Процесс увеличения информации характерен для открытых, обменивающихся веществом и энергией с окружающей средой, саморазвивающихся систем живой природы (белковых молекул, организмов, популяций животных и так далее).

Таким образом, в физике информация рассматривается как антиэнтропия или энтропия с обратным знаком.

Информация в биологии. В биологии, которая изучает живую природу, понятие «информация» связывается с целесообразным поведением живых организмов. Такое поведение строится на основе получения и использования организмом информации об окружающей среде.

Понятие «информация» в биологии используется также в связи с исследованиями механизмов наследственности. Генетическая информация передается по наследству и хранится во всех клетках живых организмов. Гены представляют собой сложные молекулярные структуры, содержащие информацию о строении живых организмов. Последнее обстоятельство позволило проводить научные эксперименты по клонированию, то есть созданию точных копий организмов из одной клетки.

Информация в кибернетике. В кибернетике (науке об управлении) понятие «информация» связано с процессами управления в сложных системах (живых организмах или технических устройствах). Жизнедеятельность любого организма или нормальное функционирование технического устройства зависит от процессов управления, благодаря которым поддерживаются в необходимых пределах значения их параметров. Процессы управления включают в себя получение, хранение, преобразование и передачу информации.

Информация должна быть полезной, тогда дискуссия приобретает практическую ценность. Бесполезная информация создает информационный шум, который затрудняет восприятие полезной информации. Примерами передачи и получения бесполезной информации могут служить некоторые конференции и чаты в Интернете.

Широко известен термин «средства массовой информации» (газеты, радио, телевидение), которые доводят информацию до каждого члена общества. Такая информация должна быть достоверной и актуальной. Недостоверная информация вводит членов общества в заблуждение и может быть причиной возникновения социальных потрясений. Неактуальная информация бесполезна и поэтому никто, кроме историков, не читает прошлогодних газет.

Для того чтобы человек мог правильно ориентироваться в окружающем мире, информация должна быть полной и точной. Задача получения полной и точной информации стоит перед наукой. Овладение научными знаниями в процессе обучения позволяют человеку получить полную и точную информацию о природе, обществе и технике.

По способу передачи и восприятия:

визуальная, аудиальная, тактильная (ощущения), органолентическая (запах и вкус),

машинно-выдаваемая и воспринимаемая средствами ВТ

По отношению к окружающей среде:

входная, выходная, внутренняя.

По отношению к исходному результату:

исходная, промежуточная, результирующая.

Язык как знаковая система

Для обмена информацией с другими людьми человек использует естественные языки (русский, английский, китайский и др.), то есть информация представляется с помощью естественных языков. В основе языка лежит алфавит, то есть набор символов (знаков), которые человек различает по их начертанию. В основе русского языка лежит кириллица, содержащая 33 знака, английский язык использует латиницу (26 знаков), китайский язык использует алфавит из десятков тысяч знаков (иероглифов).

Последовательности символов алфавита в соответствии с правилами грамматики образуют основные объекты языка — слова. Правила, согласно которым образуются предложения из слов данного языка, называются синтаксисом. Необходимо отметить, что в естественных языках грамматика и синтаксис языка формулируются с помощью большого количества правил, из которых существуют исключения, так как такие правила складывались исторически.

Наряду с естественными языками были разработаны формальные языки (системы счисления, язык алгебры, языки программирования и др.). Основное отличие формальных языков от естественных состоит в наличии строгих правил грамматики и синтаксиса.

Например, системы счисления можно рассматривать как формальные языки, имеющие алфавит (цифры) и позволяющие не только именовать и записывать объекты (числа), но и выполнять над ними арифметические операции по строго определенным правилам.

Некоторые языки используют в качестве знаков не буквы и цифры, а другие символы, например химические формулы, ноты, изображения элементов электрических или логических схем, дорожные знаки, точки и тире (код азбуки Морзе) и др.

Информация не существует сама по себе, она проявляется в информационных процессах.

Информационные процессы всегда протекают в каких-либо системах (биологических, социальных, технических, социотехнических).

Состоит из процессов поиска и отбора информации.

Поиск информации всегда сопровождается ее отбором.

Методы происка информации

общение со специалистами по интересующему вас вопросу;

чтение соответствующей литературы;

просмотр видео-, телепрограмм;

прослушивание радиопередач и аудиокассет;

работа в библиотеках, архивах;

запрос к информационным системам, базам и банкам компьютерных данных; другие методы.

Хранение процесс распространения информации во времени.

Хранилище информации зависит от ее носителя

Схема процесса передачи информации

Процессы изменения формы информации:

Процесс изменения содержания информации:

систематизация и т

1. Измерение информации: содержательный и алфавитный подходы. Единицы измерения информации.

Определить понятие «количество информации» довольно сложно. В решении этой проблемы существует два основных подхода. Исторически они возникли почти одновременно. В конце 1940 г. один из основоположников кибернетике американский математик Клож Шенон развил вероятностный подход к измерению количества информации, а работы по созданию ЭВМ привели к «объемному подходу».

Количество информации как мера уменьшения неопределенности

С точки зрения отдельного человека, ценность информации определяется тем, насколько она проясняет для него какой-либо вопрос, то есть уменьшает неопределенность ситуации. При этом количество одной и той же информации может быть оценено различными людьми по-разному. Для объективного измерения количества информации необходимо формализовать задачу.

Будем считать события равновозможными, если мы не располагаем заранее никакой информацией (статистическими данными, логическими умозаключениями и т.д.), о том, что шансы одного из событий выше или ниже, чем шансы любого другого. При этом имеется в виду, что в результате опыта обязательно наступит какое-либо событие и притом только одно.

Так, например, при подбрасывании монеты выпадение орла или решки можно считать равновозможными событиями, предполагая монету идеальной, то есть исключив из рассмотрения возможность других исходов («зависла в воздухе», «встала на ребро»), а также влияние на исход опыта чеканки на сторонах монеты, отклонения формы реальной монеты от правильной и т. д.

Чем больше равновозможных событий, тем больше неопределенность ситуации. Минимальный размер сообщения о том, что произошло одно из двух равновозможных событий, равен одному биту. Информацию о том, что произошло первое событие, можно закодировать в двоичном алфавите нулем, а о том, что произошло второе событие – единицей.

Для уменьшения неопределенности в два раза (вместо двух возможных событий – одно реально произошедшее) требуется один бит информации. Иначе говоря, сообщение, уменьшающее неопределенность ситуации в два раза, несет один бит информации. Если его длина, подсчитанная с использованием алфавитного подхода, больше, значит сообщение несет избыточную, с точки зрения уменьшения неопределенности, информацию.

Пример. С точки зрения уменьшения неопределенности, сообщение о исходе опыта бросания идеальной монеты (два равновозможных события) несет один бит информации.

Можно рассчитать длину сообщения в двоичном алфавите, необходимую для передачи информации. Для уменьшения неопределенности ситуации в 2n раз необходимо n бит информации.

Пример. С точки зрения уменьшения неопределенности, сообщение о исходе опыта бросания двух идеальных монет (четыре равновозможных события: орел-решка; решка-орел; орел-орел; решка-решка) несет два бита информации. Действительно, 2n в данном случае равняется четырем, следовательно n = 2.

Задача нахождения n по известному значению k = 2n решается нахождением логарифма числа k по основанию 2, поэтому, для того, чтобы закодировать информацию, уменьшающую неопределенность в k раз, необходимо log2k бит информации. Приведем таблицу некоторых двоичных логарифмов, являющихся целыми числами. n log2k

Если используется алфавит, состоящий не из двух, а из 2p знаков, то каждый знак может нести информацию, уменьшающую неопределенность ситуации в 2p раз. Таким образом, сообщение из m знаков позволяет уменьшить неопределенность в (2p)m = 2pm раз, то есть его информационный объем равен m·p бит, что согласуется с результатом, полученным при использовании алфавитного подхода.

Если информация представлена в виде дискретного сообщения, то логично считать количеством информации его длину, то есть общее число знаков в сообщении. Но длина сообщения зависит не только от содержащейся в нем информации. На нее влияет мощность алфавита используемого языка. Чем меньше знаков в используемом алфавите, тем длиннее сообщение. Так, например, в алфавите азбуки Морзе всего три знака (точка, тире, пауза), поэтому для кодирования каждой русской или латинской буквы нужно использовать несколько знаков, и текст, закодированный по Морзе, будет намного длиннее, чем при обычной записи.

Пример: Сигнал SOS: 3 знака в латинском алфавите;

11 знаков в алфавите Морзе: ··· пауза – – – пауза ···.

Для упорядочивания измерений информационный объем сообщений принято измерять в битах. Один бит соответствует одному знаку двоичного алфавита. Итак, чтобы измерить длину сообщения, его нужно представить в двоичном виде и подсчитать количество двоичных знаков – битов. При этом совсем не обязательно уметь интерпретировать сообщения.

Пример: Пусть сообщение в двоичном алфавите выглядит следующим образом: 000100010001. Мы не знаем, какая информация была заложена в этом сообщении, но можем легко подсчитать его длину – 12 двоичных знаков, следовательно, его информационный объем равен 12-ти битам.

Такой способ измерения количества информации называется алфавитным подходом. При этом измеряется не содержание информации с точки зрения его новизны и полезности, а размер несущего информацию сообщения. Мы уже убедились, что при алфавитном подходе к определению количества информации одни и те же сведения, закодированные по-разному, будут иметь различный информационный объем. Сообщения одинаковой длины могут нести совершенно как совершенно бесполезные сведения, так и нужную информацию. Пример: Применяя алфавитный подход, получаем, что информационный объем слов “фыырпбьощ” и “компьютер” совершенно одинаков, а слов “ученик” и “учащийся” – различен.

Если алфавит содержит 2n знаков, то каждый из его знаков можно закодировать с помощью n знаков двоичного алфавита. Таким образом, объем информации, содержащейся в сообщении длиной m при использовании алфавита мощностью 2n, равен m·n бит.

Найдем информационный объем слова SOS, записанного в компьютерной кодировке. При кодировании букв в компьютере используется либо алфавит ASCII (American Standard Code for Information Interchange — американский стандартный код обмена информацией), состоящий из 28=256 знаков, либо алфавит Unicode, мощность которого 216 = 65536. В слове SOS три буквы, следовательно, его информационный объем 3·8=24 или 3·16=48 бит, в зависимости от используемой кодировки.

Алфавитный подход удобен при подсчете количества информации, хранимого, передаваемого и обрабатываемого техническими устройствами. Действительно, устройствам нет дела до содержательной стороны сообщений. Компьютеры, принтеры, модемы работают не с самой информацией а с ее представлением в виде сообщений. Оценить информационные результаты их работы как полезные или бесполезные может только человек.

Единицы измерения информации

Для удобства, помимо бита используются более крупные единицы измерения количества информации. Вот соотношения между ними:

То, что отношения между единицами измерения кратны степеням 2, объясняется большим теоретическим и практическим значением двоичного кодирования в информатике.

1. Дискретное представление информации: двоичные числа; двоичное кодирование текста в памяти компьютера. Информационный объем текста.

Представление информации происходит в различных формах в процессе восприятия окружающей среды живыми организмами и человеком, в процессах обмена информацией между человеком и человеком, человеком и компьютером, компьютером и компьютером и так далее. Преобразование информации из одной формы представления (знаковой системы) в другую называется кодированием.

Средством кодирования служит таблица соответствия знаковых систем, которая устанавливает взаимно однозначное соответствие между знаками или группами знаков двух различных знаковых систем.

Двоичное кодирование информации

В компьютере для представления информации используется двоичное кодирование, так как удалось создать надежно работающие технические устройства, которые могут со стопроцентной надежностью сохранять и распознавать не более двух различных состояний (цифр):

электромагнитные реле (замкнуто/разомкнуто), широко использовались в конструкциях первых ЭВМ;

участок поверхности магнитного носителя информации (намагничен/размагничен);

участок поверхности лазерного диска (отражает/не отражает);

триггер (см. п. 3.7.3), может устойчиво находиться в одном из двух состояний, широко используется в оперативной памяти компьютера.

Все виды информации в компьютере кодируются на машинном языке, в виде логических последовательностей нулей и единиц.

Цифры двоичного кода можно рассматривать как два равновероятных состояния (события). При записи двоичной цифры реализуется выбор одного из двух возможных состояний (одной из двух цифр) и, следовательно, она несет количество информации, равное 1 биту.

Даже сама единица измерения количества информации бит (bit) получила свое название от английского словосочетания BInary digiT (двоичная цифра).

Важно, что каждая цифра машинного двоичного кода несет информацию в 1 бит. Таким образом, две цифры несут информацию в 2 бита, три цифры — в 3 бита и так далее. Количество информации в битах равно количеству цифр двоичного машинного кода.

Представление числовой информации с помощью систем счисления

Для записи информации о количестве объектов используются числа. Числа записываются с использованием особых знаковых систем, которые называются системами счисления. Алфавит систем счисления состоит из символов, которые называются цифрами. Например, в десятичной системе счисления числа записываются с помощью десяти всем хорошо известных цифр: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9.

Все системы счисления делятся на две большие группы: позиционные и непозиционные системы счисления. В позиционных системах счисления значение цифры зависит от ее положения в числе, а в непозиционных — не зависит.

Римская непозиционная система счисления. Самой распространенной из непозиционных систем счисления является римская. В качестве цифр в ней используются: I (1), V (5), X (10), L (50), С (100), D (500), М (1000).

В XIX веке довольно широкое распространение получила двенадцатеричная система счисления. До сих пор мы часто употребляем дюжину (число 12): в сутках две дюжины часов, круг содержит тридцать дюжин градусов и так далее.

В позиционных системах счисления количественное значение цифры зависит от ее позиции в числе.

Наиболее распространенными в настоящее время позиционными системами счисления являются десятичная, двоичная, восьмеричная и шестнадцатеричная. Каждая позиционная система имеет определенный алфавит цифр и основание.

Двоичное кодирование текстовой информации

Начиная с конца 60-х годов, компьютеры все больше стали использоваться для обработки текстовой информации и в настоящее время большая часть персональных компьютеров в мире (и наибольшее время) занято обработкой именно текстовой информации.

Традиционно для кодирования одного символа используется количество информации, равное 1 байту, то есть I = 1 байт = 8 битов.

Для кодирования одного символа требуется 1 байт информации.

Если рассматривать символы как возможные события, то можно вычислить, какое количество различных символов можно закодировать:

Такое количество символов вполне достаточно для представления текстовой информации, включая прописные и строчные буквы русского и латинского алфавита, цифры, знаки, графические символы и пр.

При вводе в компьютер текстовой информации происходит ее двоичное кодирование, изображение символа преобразуется в его двоичный код. Пользователь нажимает на клавиатуре клавишу с символом, и в компьютер поступает определенная последовательность из восьми электрических импульсов (двоичный код символа). Код символа хранится в оперативной памяти компьютера, где занимает один байт.

В процессе вывода символа на экран компьютера производится обратный процесс — декодирование, то есть преобразование кода символа в его изображение.

Важно, что присвоение символу конкретного кода — это вопрос соглашения, которое фиксируется в кодовой таблице. Первые 33 кода (с 0 по 32) соответствуют не символам, а операциям (перевод строки, ввод пробела и так далее).

Коды с 33 по 127 являются интернациональными и соответствуют символам латинского алфавита, цифрам, знакам арифметических операций и знакам препинания.

Коды с 128 по 255 являются национальными, то есть в национальных кодировках одному и тому же коду соответствуют различные символы.

К сожалению, в настоящее время существуют пять различных кодовых таблиц для русских букв (КОИ8, СР1251, СР866, Mac, ISO), поэтому тексты, созданные в одной кодировке, не будут правильно отображаться в другой.

В настоящее время широкое распространение получил новый международный стандарт Unicode, который отводит на каждый символ не один байт, а два, поэтому с его помощью можно закодировать не 256 символов, а N = 2 16 = 65536 различных символов.

С развитием IBM PC международным стандартом стала таблица кодов ASCII:

Сегодня очень многие люди для подготовки писем, документов, статей, книг и пр. используют компьютерные текстовые редакторы. Компьютерные редакторы, в основном, работают с алфавитом размером 256 символов.

В этом случае легко подсчитать объем информации в тексте. Если 1 символ алфавита несет 1 байт информации, то надо просто сосчитать количество символов, полученное число даст информационный объем текста в байтах.

При использовании в вычислениях, код этого числа будет получен по правилам перевода в двоичную систему и получим

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *