Доклад по информатике на тему свойства информации – Реферат – Понятие и свойства информации, ее виды

1. Информация и ее свойства

Содержание

ВВЕДЕНИЕ 2

1. Информация и ее свойства 2

2. Виды информации 4

3. Меры информации 6

4. Формы адекватности информации 8

5. Обработка информации. Информационные ресурсы и информационные технологии. Информатизация
общества 9

Заключение 10

Список литературы 12

ВВЕДЕНИЕ

Слово информация происходит от латинского informatio, означа­ющего сведения, разъяснения, пояснения. С содержательной точки зрения информация – это сведения о ком-то или о чем-то, а с фор­мальной точки зрения – набор знаков и сигналов.

С юридической точки зрения информация – это сведения о людях, предметах, фактах, событиях и процессах, независимо от формы их представления. Данное определение зафиксировано в Законе «Об информации, информатизации и защите информации», утвержден­ном в 1995 году.

1. Информация и ее свойства

В обиходе информацией называют любые данные или сведения, которые кого-либо интересуют.

Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п. “Информировать” в этом смысле означает “сообщить нечто, неизвестное раньше”.

Информация — сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринимают информационные системы (живые организмы, управляющие машины и др.) в процессе жизнедеятельности и работы.

Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертёж, радиопередача и т.п.) может содержать разное количество информации для разных людей — в зависимости от их предшествующих знаний, от уровня понимания этого сообщения и интереса к нему

1.

Так, сообщение, составленное на японском языке, не несёт никакой новой информации человеку, не знающему этого языка, но может быть высокоинформативным для человека, владеющего японским. Никакой новой информации не содержит и сообщение, изложенное на знакомом языке, если его содержание непонятно или уже известно.

Информация есть характеристика не сообщения, а соотношения между сообщением и его потребителем. Без наличия потребителя, хотя бы потенциального, говорить об информации бессмысленно.

В случаях, когда говорят об автоматизированной работе с информацией посредством каких-либо технических устройств, обычно в первую очередь интересуются не содержанием сообщения, а тем, сколько символов это сообщение содержит.

Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объём сообщения.

Информация передаётся в виде сообщений от некоторого источника информации к её приёмнику посредством канала связи между ними. Источник посылает передаваемое сообщение, которое кодируется в передаваемый сигнал. Этот сигнал посылается по каналу связи. В результате в приёмнике появляется принимаемый сигнал, который декодируется и становится принимаемым сообщением.

 

канал связи

 

ИСТОЧНИК

———————————®

ПРИЁМНИК

Примеры:

сообщение, содержащее информацию о прогнозе погоды, передаётся приёмнику (телезрителю) от источника — специалиста-метеоролога посредством канала связи — телевизионной передающей аппаратуры и телевизора;

живое существо своими органами чувств (глаз, ухо, кожа, язык и т.д.) воспринимает информацию из внешнего мира, перерабатывает её в определенную последовательность нервных импульсов, передает импульсы по нервным волокнам, хранит в памяти в виде состояния нейронных структур мозга, воспроизводит в виде звуковых сигналов, движений и т.п., использует в процессе своей жизнедеятельности.

Передача информации по каналам связи часто сопровождается воздействием помех, вызывающих искажение и потерю информации.

Информацию можно:

  • формализовать;

  • распространять;

  • преобразовывать;

  • комбинировать;

  • обрабатывать;

  • делить на части;

  • упрощать;

  • собирать;

  • хранить;

  • искать;

  • измерять;

  • разрушать;

  • и др.

Все эти процессы, связанные с определенными операциями над информацией, называются информационными процессами.

Свойства информации:

  • понятность;

  • доступность;

  • краткость;

  • и др.

Информация достоверна, если она отражает истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений.

Достоверная информация со временем может стать недостоверной, так как она обладает свойством устаревать, то есть перестаёт отражать истинное положение дел.

Информация полна, если её достаточно для понимания и принятия решений. Как неполная, так и избыточная информация сдерживает принятие решений или может повлечь ошибки2.

Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т.п.

Ценность информации зависит от того, насколько она важна для решения задачи, а также от того, насколько в дальнейшем она найдёт применение в каких-либо видах деятельности человека.

Только своевременно полученная информация может принести ожидаемую пользу. Одинаково нежелательны как преждевременная подача информации (когда она ещё не может быть усвоена), так и её задержка.

Если ценная и своевременная информация выражена непонятным образом, она может стать бесполезной.

Информация становится понятной, если она выражена языком, на котором говорят те, кому предназначена эта информация.

Информация должна преподноситься в доступной (по уровню восприятия) форме. Поэтому одни и те же вопросы по разному излагаются в школьных учебниках и научных изданиях.

Информацию по одному и тому же вопросу можно изложить кратко (сжато, без несущественных деталей) или пространно (подробно, многословно). Краткость информации необходима в справочниках, энциклопедиях, учебниках, всевозможных инструкциях.

2. Виды информации

Особую роль для общества играет документированная информация. Документы – это информация, зафиксированная на материальном носителе – бумаге или машинном носителе, имеющем реквизиты, позволяющие его идентифицировать.

Возможность записи информации в письменном виде – в форме последовательности знаков – привела к образованию государств, возникновению бюрократии и появлению почтовых служб. Парал­лельно это привело – к появлению грамотных людей – людей, уме­ющих читать, писать и искать информацию для решения различных проблем.

Возникновение письменности позволило людям не только переда­вать информацию, но и накапливать ее в форме записок, писем и рукописей в архивах, а также в личных и публичных библиотеках. Квалифицированная переработка информации потребовала людей, имеющих надлежащее образование.

Для обучения грамотности были открыты гимназии, лицеи и школы, а для подготовки образованных людей – университеты и колледжи, где накоплением и передачей знаний стали заниматься ученые, учи­теля и профессора.

Для хранения знаний стали использоваться рукописные книги, а для хранения книг – библиотеки и книгохранилища. В них стал накапливаться интеллектуальный потенциал общества и государств. Неслучайно одной из основных задач варвары считали уничтожение книг и книгохранилищ.

Изобретение печатных станков в XV в. создало технологическую основу для массового издания и распространения печатных книг. Это послужило основой для всеобщего распространения грамотности и открытия массовых начальных школ, в которых все дети обучались грамотности – умениям читать, писать и считать.

Развитие промышленного производства в XVIII-XIX веках потре­бовало большого числа специалистов, для подготовки которых было открыто большое число университетов. Это дало мощный толчок для развития естественных наук – химии, физики, механики, математики и подготовки инженерных кадров.

Развитие печатных станков привело к появлению и распростране­нию газет как средств массовой информации и информатизации общества, а также появлению и распространению журналов для распространения литературных произведений. В это же время появились первые законы, регулирующие авторские права.

Изобретение в XIX – начале XX века телеграфа, радио и телефона открыло новые возможности в передаче информации и информати­зации общества. Эти технические средства дали возможность прак­тически мгновенно передавать информацию на любые расстояния.

Следующим шагом технического прогресса стало появление и развитие электроники, телевидения и радиовещания к середине XX века. Изобретение телевидения позволило людям видеть на экранах телевизоров события, происходящие в самых различных точках планеты, а изобретение магнитофона – накапливать звуковую и видеоинформацию на магнитных носителях.

Информация может существовать в самых разнообразных формах3:

  • в виде текстов, рисунков, чертежей, фотографий;

  • в виде световых или звуковых сигналов;

  • в виде радиоволн;

  • в виде электрических и нервных импульсов;

  • в виде магнитных записей;

  • в виде жестов и мимики;

  • в виде запахов и вкусовых ощущений;

  • в виде хромосом, посредством которых передаются по наследству признаки и свойства организмов и т.д.

Предметы, процессы, явления материального или нематериального свойства, рассматриваемые с точки зрения их информационных свойств, называются информационными объектами.

3. Меры информации

Какое количество информации содержится, к примеру, в тексте романа “Война и мир”, в фресках Рафаэля или в генетическом коде человека? Ответа на эти вопросы наука не даёт и, по всей вероятности, даст не скоро.

Встает вопрос о том, возможно ли объективно измерить количество информации. Важнейшим результатом теории информации является вывод:

В определенных, весьма широких условиях можно пренебречь качественными особенностями информации, выразить её количество числом, а также сравнить количество информации, содержащейся в различных группах данных.

В настоящее время получили распространение подходы к определению понятия “количество информации”, основанные на том, что информацию, содержащуюся в сообщении, можно нестрого трактовать в смысле её новизны или, иначе, уменьшения неопределённости наших знаний об объекте.

Так, американский инженер Р. Хартли (1928 г.) процесс получения информации рассматривает как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определяет как двоичный логарифм N.

Формула Хартли: I = log2N.

Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log2100 » 6,644. То есть сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единиц информации.

Определим теперь, являются ли равновероятными сообщения “первой выйдет из дверей здания женщина” и “первым выйдет из дверей здания мужчина”. Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.

Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.

Формула Шеннона: I = – ( p1 log2 p1 + p2 log2 p2 + . . . + pN log2 pN ),
где pi — вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.

Легко заметить, что если вероятности p1, …, pN равны, то каждая из них равна 1/N, и формула Шеннона превращается в формулу Хартли.

Помимо двух рассмотренных подходов к определению количества информации, существуют и другие. Любые теоретические результаты применимы лишь к определённому кругу случаев, очерченному первоначальными допущениями.

В качестве единицы информации условились принять один бит (англ. bit — binary, digit — двоичная цифра).

Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений.

А в вычислительной технике битом называют наименьшую “порцию” памяти, необходимую для хранения одного из двух знаков “0” и “1”, используемых для внутримашинного представления данных и команд.

Бит — слишком мелкая единица измерения. На практике чаще применяется более крупная единица — байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28).

Широко используются также ещё более крупные производные единицы информации:

1 Килобайт (Кбайт) = 1024 байт = 210 байт,

1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,

1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.

За единицу информации можно было бы выбрать количество информации, необходимое для различения, например, десяти равновероятных сообщений. Это будет не двоичная (бит), а десятичная (дит) единица информации.

4. Формы адекватности информации

Адекватность информации может выражаться в трех формах: семантической, синтаксической, прагматической.

Синтаксическая адекватность. Она отображает формально-структурные характеристики информации и не затрагивает ее смыслового содержания. На синтаксическом уровне учитываются тип носителя и способ представления информации, скорость передачи и обработки, размеры кодов представления информации, надежность и точность преобразования этих кодов и т.п. Информацию, рассматриваемую только с синтаксических позиций, обычно называют данными, так как при этом не имеет значения смысловая сторона. Эта форма способствует восприятию внешних структурных характеристик, т.е. синтаксической стороны информации.

Семантическая (смысловая) адекватность. Эта форма определяет степень соответствия образа объекта и самого объекта. Семантический аспект предполагает учет смыслового содержания информации. На этом уровне анализируются те сведения, которые отражает информация, рассматриваются смысловые связи. В информатике устанавливаются смысловые связи между кодами представления информации. Эта форма служит для формирования понятий и представлений, выявления смысла, содержания информации и ее обобщения.

Прагматическая (потребительская) адекватность. Она отражает отношение информации и ее потребителя, соответствие информации цели управления, которая на ее основе реализуется. Проявляются прагматические свойства информации только при наличии единства информации (объекта), пользователя и цели управления. Прагматический аспект рассмотрения связан с ценностью, полезностью использования информации при выработке потребителем решения для достижения своей цели. С этой точки зрения анализируются потребительские свойства информации. Эта форма адекватности непосредственно связана с практическим использованием информации, с соответствием ее целевой функции деятельности системы.

5. Обработка информации. Информационные ресурсы и информационные технологии. Информатизация
общества

Обработка информации – получение одних информационных объектов из других информационных объектов путем выполнения некоторых алгоритмов.

Обработка является одной из основных операций, выполняемых над информацией, и главным средством увеличения объёма и разнообразия информации.

Средства обработки информации — это всевозможные устройства и системы, созданные человечеством, и в первую очередь, компьютер — универсальная машина для обработки информации.

Компьютеры обрабатывают информацию путем выполнения некоторых алгоритмов.

Живые организмы и растения обрабатывают информацию с помощью своих органов и систем.

Информационные ресурсы – это идеи человечества и указания по их реализации, накопленные в форме, позволяющей их воспроизводство.

Это книги, статьи, патенты, диссертации, научно-исследовательская и опытно-конструкторская документация, технические переводы, данные о передовом производственном опыте и др.

Информационные ресурсы (в отличие от всех других видов ресурсов — трудовых, энергетических, минеральных и т.д.) тем быстрее растут, чем больше их расходуют.

Информационная технология — это совокупность методов и устройств, используемых людьми для обработки информации.

Человечество занималось обработкой информации тысячи лет. Первые информационные технологии основывались на использовании счётов и письменности. Около пятидесяти лет назад началось исключительно быстрое развитие этих технологий, что в первую очередь связано с появлением компьютеров.

В настоящее время термин “информационная технология” употребляется в связи с использованием компьютеров для обработки информации. Информационные технологии охватывают всю вычислительную технику и технику связи и, отчасти, — бытовую электронику, телевидение и радиовещание.

Они находят применение в промышленности, торговле, управлении, банковской системе, образовании, здравоохранении, медицине и науке, транспорте и связи, сельском хозяйстве, системе социального обеспечения, служат подспорьем людям различных профессий и домохозяйкам.

Народы развитых стран осознают, что совершенствование информационных технологий представляет самую важную, хотя дорогостоящую и трудную задачу.

В настоящее время создание крупномасштабных информационно-технологических систем является экономически возможным, и это обусловливает появление национальных исследовательских и образовательных программ, призванных стимулировать их разработку.

Информатизация общества — организованный социально-экономический и научно-технический процесс создания оптимальных условий для удовлетворения информационных потребностей и реализации прав граждан, органов государственной власти, органов местного самоуправления организаций, общественных объединений на основе формирования и использования информационных ресурсов.

Цель информатизации — улучшение качества жизни людей за счет увеличения производительности и облегчения условий их труда.

Информатизация — это сложный социальный процесс, связанный со значительными изменениями в образе жизни населения. Он требует серьёзных усилий на многих направлениях, включая ликвидацию компьютерной неграмотности, формирование культуры использования новых информационных технологий и др.

Заключение

Информация — сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринимают информационные системы (живые организмы, управляющие машины и др.) в процессе жизнедеятельности и работы.

Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объём сообщения.

Свойства информации:

достоверность;

полнота;

ценность;

своевременность;

понятность;

доступность;

краткость;

и др.

Информация может существовать в самых разнообразных формах:

в виде текстов, рисунков, чертежей, фотографий;

в виде световых или звуковых сигналов;

в виде радиоволн;

в виде электрических и нервных импульсов;

в виде магнитных записей;

в виде жестов и мимики;

в виде запахов и вкусовых ощущений;

в виде хромосом, посредством которых передаются по наследству признаки и свойства организмов и т.д.

В качестве единицы информации условились принять один бит (англ. bit — binary, digit — двоичная цифра).

Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений.

А в вычислительной технике битом называют наименьшую “порцию” памяти, необходимую для хранения одного из двух знаков “0” и “1”, используемых для внутримашинного представления данных и команд.

Бит — слишком мелкая единица измерения. На практике чаще применяется более крупная единица — байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28).

Широко используются также ещё более крупные производные единицы информации:

1 Килобайт (Кбайт) = 1024 байт = 210 байт,

1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,

1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.

В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:

1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,

1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.

За единицу информации можно было бы выбрать количество информации, необходимое для различения, например, десяти равновероятных сообщений. Это будет не двоичная (бит), а десятичная (дит) единица информации.

Список литературы

  1. Шрайберг Я.Л., Гончаров М.В. Справочное руководство по основам информатики и вычислительной техники. – М.: Финансы и статистика, 2000.

  2. Каймин В.А. Информатика: Учебник. – М.: ИНФРА-М, 2000. – 232 с.

  3. Громов Г.Р. Очерки информационной технологии. – М.: Инфоарт, 2002.

  4. Каймин В.А. Основы компьютерной технологии. – М.: Фи­нансы и статистика, 2001.

  5. Леонтьев В. Новейшая энциклопедия персонального компьютера. – М.: ОЛМА-ПРЕСС, 2005. – 640с.

1 Шрайберг Я.Л., Гончаров М.В. Справочное руководство по основам информатики и вычислительной техники. – М.: Финансы и статистика, 2000. – C. 48.

2 Каймин В.А. Информатика: Учебник. – М.: ИНФРА-М, 2000. – С. 51.

3 Каймин В.А. Информатика: Учебник. – М.: ИНФРА-М, 2000. – С. 68.

gigabaza.ru

Сообщение на тему “Информация. Свойства информации”

ФБГОУ ВПО «Мордовский государственный

педагогический институт имени М.Е. евсевьева»

Физико-математический факультет

Кафедра информатики и ВТ

Информация. Свойства информации

Выполнила: студентка физико – математического факультета группы МДМ-110 Морозова Татьяна

Саранск,2013

В литературе можно найти достаточно много определений термина «информация», отражающих различные подходы к толкованию этого понятия. В Федеральном закон Российской Федерации от 27 июля 2006 г. N 149-ФЗ «Об информации, информационных технологиях и о защите информации» дается следующее определение этого термина: «информация – сведения (сообщения, данные) независимо от формы их представления». Толковый словарь русского языка Ожегова приводит 2 определения слова «информация»:

  • Сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройством.

  • Сообщения, осведомляющие о положении дел, о состоянии чего-нибудь. (Научно-техническая и газетная информации, средства массовой информации — печать, радио, телевидение, кино).

Информация и ее свойства являются объектом исследования целого ряда научных дисциплин, таких как теория информации (математическая теория систем передачи информации), кибернетика (наука о связи и управлении в машинах и животных, а также в обществе и человеческих существах), семиотика (наука о знаках и знаковых системах), теория массовой коммуникации (исследование средств массовой информации и их влияния на общество), информатика (изучение процессов сбора, преобразования, хранения, защиты, поиска и передачи всех видов информации и средств их автоматизированной обработки) и ряде других.

В информатике наиболее часто используется следующее определение этого термина:

Информация — это осознанные сведения об окружающем мире, которые являются объектом хранения, преобразования, передачи и использования.

Сведения — это знания, выраженные в сигналах, сообщениях, известиях, уведомлениях и т. д. Каждого человека окружает информация различных видов.

Как и всякий объект, информация обладает свойствами. Характерной отличительной особенность информации от других объектов природы и общества, является дуализм: на свойства информации влияют как свойства исходных данных, составляющих ее содержательную часть, так и свойства методов, фиксирующих эту информации.

Важнейшими, с практической точки зрения, свойствами информации является ценность, достоверность, актуальность и кумулятивность.

Ценность информации – определяется обеспечением возможности достижения цели, поставленной перед получателем информации. Достоверность – соответствие полученной информации объективной реальности окружающего мира. В свойствах достоверности выделяются безошибочность и подлинность данных, а также адекватность. Под безошибочностью понимается свойство данных не иметь скрытых случайных ошибок. Случайные ошибки в данных обусловлены, как правило, непредумышленными искажениями смысла человеком или сбоями технических средств при переработке данных в информационной системе. Актуальность – это мера соответствия ценности и достоверности информации текущем времени (определенном временном периода) Кумулятивность определяет такие понятия, как гомоморфизм, и избирательность. Гомоморфизм – соотношение между объектами двух множеств, при котором одна множество является моделью другого. Данные, специально отобранные для конкретного уровня пользователей, обладающих определенным свойством – избирательностью.

Временные свойства определяют способность данных передавать динамику изменения ситуации (динамичность). При этом можно рассматривать или время опоздания появления в данных соответствующих признаков объектов, или различия реальных признаков объекта и тех же признаков, передающихся данным. Соответственно можно выделить: Актуальность – свойство данных, характеризующий текущую ситуацию; Оперативность – свойство данных, которая состоит в том, что время их сбора и переработки соответствует динамике изменения ситуации; Идентичность – свойство данных соответствовать состоянию объекта. Свойство недоступности при рассмотрении защищенности данных можно выделить технические аспекты защиты данных от несанкционированного доступа и социально-психологические аспекты классификации данных по мере их конфиденциальности и секретности (свойство конфиденциальности). Общественная природа – источником информации является познавательная деятельность людей, общества. Языковая природа – информация выражается с помощью языка – знаковой системы любой природы, которая служит средством общения, мышления, выражения мнения. Язык может быть естественной, используемый в повседневной жизни и служит формой выражения мыслей и средством общения между людьми, а также искусственной, созданной людьми с определенной целью (например, язык математической символики, информационно-поисковая, алгоритмическая и др. языки. Дискретность – единицами информации как средствами выражения являются слова, предложения, отрывки текста, а в плане содержания – понятия, высказывания, описания фактов, гипотезы, теории, законы и т.п.. Старение – главная причина старения информации является не само время, а появление новой информации, с поступлением которой предварительная информация оказывается неверной, перестает адекватно передавать явления и закономерности материального мира, человеческого общения и мышления). Рассеяния – существование во многих источниках.

Самая ценная информация – объективная, достоверная, полная, и актуальная. При этом следует учитывать, что и необъективная, недостоверная информация (например, художественная литература), имеет большую значимость для человека.

С течением времени количество информации растет, информация накапливается, происходит ее систематизация, оценка и обобщение. Это свойство назвали ростом и аккумулированием информации.

Старение информации заключается в уменьшении ее ценности с течением времени. Старит информацию не само время, а появление новой информации, которая уточняет, дополняет или отвергает полностью или частично более раннюю. Научно-техническая информация стареет быстрее, эстетическая (произведения искусства) – медленнее.

Логичность, компактность, удобная форма представления облегчает понимание и усвоение информации.

Список использованных источников

www.metod-kopilka.ru

Информация и её свойства

Что такое информация?

Технологическая карта урока. Информация и её свойства.


Информацию люди получают ежедневно, изучая окружающий мир, открывая для себя что-то новое.

Для человека информация — это сведения об окружающем его мире. Объем информации стремительно растет. В последние несколько лет зафиксирована тенденция ежегодного увеличения объема информационных данных увеличивается вдвое. Чем эффективнее человек научится воспринимать и обрабатывать получаемую информацию, тем выше его способности к познанию.
Каждый день человечество окружают тысячи звуков, запахов, визуальных образов и воспринимаются они сознанием при помощи разных органов чувств. Именно они формируют первичные данные о предмете, явлении, произведении искусства или живом существе.

Как человек воспринимает информацию

Человек пользуется пятью группами органов чувств:
— глазами воспринимается визуальная информация;
— органами слуха воспринимаются звуки;
— органы обоняния помогают чувствовать запахи;
— органы вкуса дают информацию о еде;
— органы осязания формируют представление о предметах на ощупь.

Информация, переданная органами чувств (органолептическая) в процентном отношении распределяется так:
— 90 процентов — от органов зрения;
— 9 процентов от органов слуха;
— 1 процент от всего остального.

Определение информации

Дать строгое определение понятию информация современная наука не может. Большинство ученых призывает рассматривать информацию как понятие неопределимое, первичное. Учебник Л.Л. Босовой также не дает конкретного определения понятия, указывая на множество трактовок. В обыденном понимании информация — это сведения об окружающем мире, которые передают и получают люди с помощью органов чувств. Если обратиться к происхождению слово «информация», то в русском языке это аналог латинского Informato — сведения, разъяснения, изложение.
Общенаучное определение информации — отражение внешнего мира с использованием сигналов и знаков.

Информационные сигналы

Любая информация всегда связана с каким-либо материальным предметом, который является ее носителем. Такими носителями могут быть подходящие материальные предметы, вещества в разных состояниях, машинные носители.
Передается информация с помощью сигналов. Сигнал — это физический процесс с информационным значением. Они могут дискретными или непрерывными.
Непрерывным называется сигнал, который постоянно меняется во времени по амплитуде.
Дискретный сигнал принимает конечное число значений.
Непрерывный сигнал используется в телевизионном и радиовещании, телефонной связи, а дискретный передает символическую, текстовую информацию.

Как можно классифицировать информацию

Виды информации классифицируются по следующим признакам:

1. По области возникновения:
— элементарная — отражает все, что происходит с неодушевленной природой;
— биологическая — отражает все, что происходит с миром животных и растений;
— социальная — отражает процессы социума людей.
2. По способу передачи и восприятию:
— визуальная — все, что можно увидеть;
— аудиальная — все, что можно услышать;
— тактильная — все, что можно ощутить;
— органолептическая — все, что можно попробовать и почувствовать в воздухе;
— машинная — все что выдается и воспринимается средствами ЭВМ.
3. По общественному назначению:
— массовая — политическая, общественная, популярная;
— специальная — научная, техническая;
— личная — индивидуальная.
4. По форме представления
— графическая, числовая, текстовая и т.д.

Свойства информации

Обмен информацией всегда связан с вопросами: насколько данные актуальны, полезны и достоверны. Понимание этих вопросов помогает лучше понимать собеседника, находить верные решения в разных ситуациях. Свойства информации анализируются фактически на автомате, а значения этом процессу человек не придает. Тем не менее именно от свойств информации может зависеть экономическое развитие государства, здоровье, жизнь и благополучие людей.
К свойствам информации относятся:
1. Полнота — исчерпывающие характеристики предмета или явления.
2. Актуальность — соответствие нуждам человека в конкретный временной отрезок.
3. Эргономичность — удобство формы и объема информации для конкретного потребителя.
4. Защищенность — запрет на несанкционированную работу с информацией.
5. Полезность — способность соответствовать человеческим запросам.
6. Достоверность — безошибочное отражение текущего положения дел. Со временем информация может утратить это свойство.
7. Понятность — изложение на доступном языке для пользователя.
8. Объективность — независимость от чего-либо суждения, оценки


murnik.ru

Доклад – Информация, информатика, представление информации

Министерство науки и образования Украины

Славянский государственный педагогический университет

Реферат

на тему:

Информация, информатика,

представление информации.

Студента 3 курса

Шрам Сергея

Славянск

2003

1. Информация, информатика,

представление информации.

Понятие об информации

Несмотря на то, что человеку постоянно приходится иметь дело с информацией (он получает ее с помощью органов чувств), строгого научного определения, что же такое информация, не существует. В тех случаях, когда наука не может дать четкого определения какому-то предмету или явлению, люди пользуются понятиями.

Понятия отличаются от определений тем, что разные люди при разных обстоятельствах могут вкладывать в них разный смысл. В бытовом смысле под информацией обычно понимают те сведения, которые человек получает от окружающей природы и общества с помощью органов чувств. Наблюдая за природой, общаясь с другими людьми, читая книги и газеты, просматривая телевизионные передачи, мы получаем информацию.

Математик рассмотрит это понятие шире и включит в него те сведения, которые человек не получал, а создал сам с помощью умозаключений. Биолог же пойдет еще дальше и отнесет к информации и те данные, которые человек не получал с помощью органов чувств и не создавал в своем уме, а хранит в себе с момента рождения и до смерти. Это генетический код, благодаря которому дети так похожи на родителей.

Итак, в разных научных дисциплинах и в разных областях техники существуют разные понятия об информации. Нам же, приступая к изучению информатики, надо найти что-то общее, что объединяет различные подходы. И такая общая черта есть. Все отрасли науки и техники, имеющие дело с информацией, сходятся в том, что информация обладает четырьмя свойствами. Информацию можно: создавать, передавать (и, соответственно, принимать), хранить и обрабатывать.

Каждая дисциплина решает эти вопросы по-разному. В нашем учебном пособии мы рассмотрим те средства, которые для этого предоставляет информатика.

Информатика

Информатика — это техническая наука, систематизирующая приемы создания, хранения, обработки и передачи информации средствами вычислительной техники, а также принципы функционирования этих средств и методы управления ими.

Из этого определения видно, что информатика очень близка к технологии, поскольку отвечает на вопрос как..?

• Как принимать и хранить информацию?

• Как обрабатывать информацию и преобразовывать ее в форму, удобную для человека?

• Как использовать вычислительную технику с наибольшей эффективностью?

• Как использовать достижения других наук для создания новых средств вычислительной техники?

• Как управлять техническими средствами с помощью программ?

Поэтому не случайно предмет, изучением которого занимается информатика, нередко называют информационной технологией или компьютерной технологией.

Важным в нашем определении является то, что у информатики есть как бы две стороны. С одной стороны, она занимается изучением устройств и принципов действия средств вычислительной техники, а с другой стороны — систематизацией приемов и методов работы с программами, управляющими этой техникой.

Краткая история информатики

Корни информатики лежат в другой науке — кибернетике. Понятие «кибернетика» впервые появилось в первой половине XIX века, когда французский физик Андре Мари Ампер, известный нам из школьного курса физики по закону Ампера, решил создать единую классификацию всех наук, как существовавших в то время, так и гипотетических (которые не существовали, но, по его мнению, должны были бы существовать). Он предположил, что должна существовать некая наука, занимающаяся изучением искусства управления. Ампер не имел в виду управление техническими системами, поскольку сложных технических систем в те времена еще не было. Он имел в виду искусство управления людьми, то есть обществом. Эту несуществующую науку Ампер назвал кибернетикой от греческого слова кибернетикос (искусный в управлении). В Древней Греции этого титула удостаивались лучшие мастера управления боевыми колесницами.

Впоследствии слово кибернетикос было заимствовано римлянами — так в латинском языке появилось слово губернатор (управляющий провинцией). Сегодня уже трудно догадаться, что слова «кибернетика» и «губернатор» имеют одно происхождение, но это так.

С тех пор о кибернетике забыли более, чем на сто лет. В 1948 году выдающийся американский математик Норберт Винер, труды которого по математической логике легли в основу зарождавшегося тогда программирования вычислительной техники, вновь возродил термин «кибернетика» и определил ее как науку об управлении в живой природе и в технических системах. Это определение оказалось весьма спорным. Смешивание живой природы и технических систем в одной дисциплине привело к резкому неприятию такого определения учеными многих стран. Особенно сильной критике зарождавшаяся кибернетика подверглась в Советском Союзе. В большинстве стран мира научная дискуссия привела к расколу в научных кругах, а в СССР, где кибернетика получила даже политическое осуждение, работы в этой области были вообще прекращены на много лет, что болезненно сказывается и по сей день.

Так из-за спорного определения в молодой зарождающейся науке произошел раскол. Сегодня кибернетика продолжает изучать связь между психологией и математической логикой, разрабатывает методы создания искусственного интеллекта, но наряду с ней уже действует другая, отделившаяся от нее наука. Она занимается проблемами применения средств вычислительной техники для работы с информацией. В Великобритании и США эту науку называют computer science (наука о вычислительной технике). Во Франции она получила другое название — informatique (информатика). Оттуда это название и пришло к нам в Украину и Россию, а также в некоторые другие страны Восточной Европы.

Информация аналоговая и цифровая

Информацию можно классифицировать разными способами, и разные науки делают это по-разному. Например, в философии различают информацию объективную и субъективную. Объективная информация отражает явления природы и человеческого общества. Субъективная информация создается людьми и отражает их взгляд на объективные явления.

Для криминалистики, например, очень важно, что информация бывает полной и неполной, истинной и ложной, достоверной и недостоверной. Юристы рассматривают информацию как факты. Физики же рассматривают информацию как сигналы — для них наиболее важна передача информации, поскольку физика изучает законы природы, лежащие в основе распространения сигналов разных видов (оптических, звуковых, электромагнитных и других). Биология изучает методы обмена информацией между животными, генетика изучает передачу информации по наследству с помощью генов, а лингвистика изучает методы кодирования и выражения информации языковыми методами.

Каждая наука, занимающаяся вопросами, связанными с информацией, вводит свою систему классификации. Для информатики самым главным вопросом является то, каким образом используются средства вычислительной техники для создания, хранения, обработки и передачи информации, поэтому у информатики особый подход к классификации информации. В информатике отдельно рассматривают аналоговую информацию и цифровую. Это важно, поскольку человек благодаря своим органам чувств, привык иметь дело с аналоговой информацией, а вычислительная техника, наоборот, в основном работает с цифровой информацией.

Человек так устроен, что воспринимает информацию с помощью органов чувств. Свет, звук и тепло — это энергетические сигналы, а вкус и запах – это результат воздействия химических соединений, в основе которого тоже энергетическая природа. Человек испытывает энергетические воздействия непрерывно и может никогда не встретиться с одной и той же их комбинацией дважды. Мы не найдем двух одинаковых зеленых листьев на одном дереве и не услышим двух абсолютно одинаковых звуков — это информация аналоговая. Если же разным цветам дать номера, а разным звукам — ноты, то аналоговую информацию можно превратить в цифровую.

Музыка, когда мы ее слышим, несет аналоговую информацию, но стоит только записать ее нотами, как она становится цифровой. Мы легко различим разницу в одной и той же ноте, если исполнить ее на фортепиано и на флейте, хотя на бумаге эти ноты выглядят одинаково.

Разница между аналоговой информацией и цифровой прежде всего в том, что аналоговая информация непрерывна, а цифровая — дискретна. Если у художника в палитре только одна зеленая краска, то непрерывную бесконечность зеленых цветов листьев он передаст очень грубо, и все деревья на картине будут иметь одинаковый цвет. Если у художника три разные зеленые краски, то передача цвета уже будет чуть более точной. Для большей точности передачи аналоговой информации о живой природе художники смешивают разные краски и получают большое количество оттенков.

Аналого-цифровое преобразование

Преобразование информации из аналоговой формы в цифровую называютаналогово-цифровым преобразованием (АЦП).

Примеры аналоговой информации известны нам из школьного курса математики. Графики непрерывных функций выражают аналоговую информацию.

1. На рисунке показан график функцииY = X 2 . Это график непрерывной функции.

2. Тот же самый график после преобразования в цифровую форму выглядит иначе — намного грубее.

3. Погрешность, которая возникает при таком преобразовании, называется погрешностью оцифровки.

4. Преобразование можно сделать менее грубым, если столбики диаграммы поставить почаще (так уменьшается дискретность).

5. Чем меньше дискретность, тем ближе цифровая информация к аналоговой и меньше погрешность оцифровки.

Вы видите, что при уменьшении дискретности на диаграмме становится больше столбиков. Если дискретность сделать очень маленькой, то точность представления непрерывной аналоговой информации в виде последовательности чисел можно сделать очень высокой, но и столбиков в диаграмме будет больше. Поэтому чем ближе цифровая информация приближается по качеству к аналоговой, тем больше вычислений приходится выполнять компьютеру, а значит, тем больше информации ему надо хранить и обрабатывать.

Чем мощнее компьютер, тем больше информации он может обработать в единицу времени. Чем быстрее компьютер обрабатывает информацию, тем выше качество изображения, лучше звук и точнее результаты расчетов, но тем дороже обходится людям прием, передача и обработка информации.

6. Справа показаны два «одинаковых» рисунка, полученные из Интернета. Затраты времени (и средств) на прием второго рисунка в десять раз выше, потому что он содержит больше информации.

Устройства аналоговые и цифровые

Органы чувств человека так устроены, что он способен принимать, хранить и обрабатывать аналоговую информацию. Многие устройства, созданные человеком, тоже работают с аналоговой информацией.

1. Телевизор — это аналоговое устройство. Внутри телевизора есть кинескоп. Луч кинескопа непрерывно перемещается по экрану. Чем сильнее луч, тем ярче светится точка, в которую он попадает. Изменение свечения точек происходит плавно и непрерывно.

2. Монитор компьютера тоже похож на телевизор, но это устройство цифровое. В нем яркость луча изменяется не плавно, а скачком (дискретно). Луч либо есть, либо его нет. Если он есть, мы видим яркую точку (белую или цветную). Если луча нет, мы видим черную точку. Поэтому изображения на экране монитора получаются более четкими, чем на экране телевизора.

3. Проигрыватель грампластинок — аналоговое устройство. Чем больше высота неровностей на звуковой дорожке, тем громче звучит звук.

4. Телефон — тоже аналоговое устройство. Чем громче мы говорим в трубку, тем выше сила тока, проходящего по проводам, тем громче звук, который слышит наш собеседник.

К цифровым устройствам относятся персональные компьютеры — они работают с информацией, представленной в цифровой форме. Цифровыми также являются музыкальные проигрыватели лазерных компакт-дисков, поэтому музыкальные компакт-диски можно воспроизводить на компьютере.

Недавно началось создание цифровой телефонной связи, а в ближайшие годы ожидается и появление цифрового телевидения. В некоторых городах Украины и России уже работают цифровые телевизионные станции. После того как телевидение станет цифровым, качество изображения на экране телевизора намного улучшится — оно станет ближе к качеству изображения на экране компьютерного монитора.

Понятие о кодировании информации

Информация передается в виде сигналов. Когда мы разговариваем с другими людьми, то улавливаем звуковые сигналы. Если мы смотрим в окно, наш глаз принимает световые потоки, отраженные от объектов окружающей природы. Световой поток — это тоже сигнал.

А как же информация хранится? Для того чтобы информацию сохранить, ее надо закодировать. Любая информация всегда хранится в виде кодов. Когда мы что-то пишем в тетради, мы на самом деле кодируем информацию с помощью специальных символов. Эти символы всем знакомы — они называются буквами. И система такого кодирования тоже хорошо известна — это обыкновенная азбука. Жители других стран те же самые слова запишут по-другому (другими буквами) — у них своя азбука. Можно сказать, что у них другая система кодирования. В некоторых странах вместо букв используют иероглифы — это еще более сложный способ кодирования информации.

Можно кодировать и звуки. С одной из таких систем кодирования вы тоже хорошо знакомы: мелодию можно записать с помощью нот. Это не единственная система кодирования музыки. В давние времена на Руси музыку записывали с помощью так называемых «крюков» — это особая форма записи.

Хранить можно не только текстовую и звуковую информацию. В виде кодов хранятся и изображения. Если посмотреть на рисунок с помощью увеличительного стекла, то видно, что он состоит из точек — это так называемый растр. Координаты каждой точки можно запомнить в виде чисел. Цвет каждой точки тоже можно запомнить в виде числа. Эти числа могут храниться в памяти компьютера и передаваться на любые расстояния. По ним компьютерные программы способны изобразить рисунок на экране или напечатать его на принтере. Изображение можно сделать больше или меньше, темнее или светлее, его можно повернуть, наклонить, растянуть. Мы говорим о том, что на компьютере обрабатывается изображение, но на самом деле компьютерные программы изменяют числа, которыми отдельные точки изображения представлены в памяти компьютера.

Хранение цифровой информации. Бит

Вы уже знаете, что компьютеры предпочитают работать с цифровой информацией, а не с аналоговой. Так происходит потому, что цифровую информацию очень удобно кодировать, а значит, ее удобно хранить и обрабатывать.

Компьютер работает с информацией по принципу «разделяй и властвуй». Если это книга, то она делится на главы, разделы, абзацы, предложения, слова и буквы (то есть, символы). Компьютер отдельно работает с каждым символом. Если это рисунок, то компьютер работает с каждой точкой этого рисунка отдельно.

Спрашивается, а до каких же пор можно делить информацию? Буква — это самая маленькая часть информации? Оказывается, нет. Существует много различных букв, и, для того чтобы компьютер мог различать буквы, их тоже надо кодировать. В телеграфной азбуке, например, буквы кодирую г с помощью точек и тире:

Точки и тире — это действительно самая малая часть информации, но в информатике кодом телеграфной азбуки не пользуются. Вместо точек и тире применяют нули и единицы — такой код называется двоичным. По-английски двоичный знак звучит как binary digit Сокращенно получается bit (бит).

Бит — это наименьшая единица информации, которая выражает логическое значение. Да или Нет и обозначается двоичным числом 1 или 0.

Если какая-то информация представлена в цифровом виде, то компьютер легко превращает числа, которыми она закодирована, в последовательности нулей и единиц, а дальше уже работает с ними. Вы тоже можете преобразовать любое число в двоичную форму. Делается это следующим образом.

1. Берем, например, число 29. Поскольку это число нечетное, отнимаем от него единицу, записываем ее отдельно, а число делим пополам. Получилось 14.

2. Число 14 — четное. Отнимать от него единицу не нужно, поэтому слева от «запомненной» единицы запишем 0. Число делим пополам, получаем 7.

3. Число 7 — опять нечетное. Отнимаем от него единицу, записываем ее отдельно и делим число пополам. Получается 3.

4. Число 3 — нечетное. Отнимаем единицу, записываем ее отдельно, и результат делим пополам — получаем 1.

5. Последнюю единицу уже не делим, а просто записываем слева от полученного результата.

6. Смотрим на результат. У нас получилось двоичное число 11101 — это и есть двоичный код числа 29.

Как видите, преобразовать число в двоичный код совсем не трудно. Отнять единичку и поделить число пополам может каждый, хотя приятной эту работу не назовешь. Для человека эта работа очень утомительна. Зато компьютер, который выполняет сотни миллионов операций в секунду, преобразовывает числа в двоичный код так быстро, что это совершенно не заметно со стороны.

Когда какая-то операция выполняется незаметно, говорят, что она выполняется прозрачно. Мы думаем, что компьютер работает с текстами, графикой, музыкой и видео, а на самом деле он работает с нулями и единицами, но для нас эта работа прозрачна, мы ее не замечаем и можем о ней не думать.

От битов к байтам

Бит — очень удобная единица для хранения информации в компьютере, но не очень удобная для обработки информации. Если мы покупаем в магазине хлеб, то продавец может выдать нам каждый батон отдельно, упаковав его в полиэтиленовый пакет. Но если мы покупаем орехи, разве он станет упаковывать отдельно каждый орех?

Бит — очень маленькая единица информации. Работать с каждым битом отдельно, конечно, можно, но это малопроизводительно. Обработкой информации в компьютере занимается специальная микросхема, которая называется процессор. Эта микросхема устроена так, что может обрабатывать группу битов одновременно (параллельно). В начале 70-х годов, еще до появления персональных компьютеров, были карманные электронные калькуляторы, в которых процессор мог одновременно работать с четырьмя битами. Такие процессоры называли четырехразрядными.

Один из первых персональных компьютеров (Altair, 1974 г.) имел восьмиразрядный процессор, то есть он мог параллельно обрабатывать восемь битов информации. Это в восемь раз быстрее, чем работать с каждым битом отдельно, поэтому в вычислительной технике появилась новая единица измерения информации — байт. Байт — это группа из восьми битов.

Мы знаем, что один бит может хранить в себе один двоичный знак — 0 или 1. Это наименьшая единица представления информации — простой ответ на вопрос Да или Нет. А что может хранить байт?

На первый взгляд кажется, что раз в байте восемь битов, то и информации он может хранить в восемь раз больше, чем один бит, но это не так. Дело в том, что в байте важно не только, включен бит или выключен, но и то, в каком месте стоят включенные биты. Байты 0000 0001, 0000 1000 и 1000 0000 — не одинаковые, а разные.

Это должно быть понятно, если вспомнить, что числа 723, 732, 273, 237, 372 327 различны, хоть и записываются одинаковыми цифрами. Значения чисел зависят не только от того, какие цифры в них входят, но и от того в каких позициях эти цифры стоят.

Если учесть что важны не только нули и единицы, но и позиции, в которых они стоят, то с помощью одного байта можно выразить 256 различных единиц информации (от 0 до 255).

0000 0000 = 0

0000 0001 = 1

0000 0010 = 2

0000 0011 = 3

0000 0100 = 4

0000 0101 = 5

1111 1100 = 252

1111 1101 = 253

1111 1110 = 254

1111 1111 = 255

Всегда ли байты состояли из восьми битов? Нет, не всегда. Еще в 60-е годы, когда не было персональных компьютеров и все вычисления проводились на больших электронно-вычислительных машинах (ЭВМ), байты могли быть какими угодно. Наиболее широко были распространены ЭВМ, у которых байт состоял из шести битов, но были и такие, у которых он состоял из четырех и даже из семи битов.

Восьмибитный байт появился достаточно поздно (в начале семидесятых годов), но быстро завоевал популярность. С тех пор понятие о байте, как о группе из восьми битов, является общепризнанным.

Кодирование текстовой информации байтами

Одним битом можно закодировать два значения: Да или Нет (1 или 0).

Двумя битами можно закодировать уже четыре значения: 00, 01, 10, 11.

Тремя битами кодируются 8 разных значений.

Добавление одного бита удваивает количество значений, которое можно закодировать. При восьми битах уже можно закодировать 256 разных значений. Нетрудно догадаться, что если бы в байте было 9 битов, то одним байтом можно было бы закодировать 512 разных значений, а если бы в нем было 10 битов, то 1024 и т. д.

Биты12345678
Количество кодируемых значений248163264128256

Но все-таки в байте не 9 и не 10 битов, а только 8, и потому с его помощью кодируют 256 разных значений. Много это или мало? Смотря для чего. Давайте посмотрим, как с помощью байтов кодируют текстовую информацию.

В русском языке 33 буквы (символа) — для их кодирования достаточно 33 различных байтов. Если мы хотим различать прописные (заглавные) и строчные буквы, то потребуется 66 байтов. Для строчных и прописных букв английского языка хватит еще 52 символов — получается 118. Добавим сюда цифры (от 0 до 9), все возможные знаки препинания: точку, запятую, тире, восклицательный и вопросительный знаки. Добавим скобки: круглые, квадратные и фигурные, а также знаки математических операций: +, –, =, /, *. Добавим специальные символы, например такие, как: %,$,&, @, — мы видим, что все их можно выразить восемью битами, и при этом еще останутся свободные коды, которые можно использовать для других целей.

Дело осталось за малым: надо всем людям мира договориться о том, каким кодом (от 0 до 255) должен кодироваться каждый символ. Если, например, все люди будут знать, что код 33 означает восклицательный знак, а код 63 — знак вопросительный, то текст, набранный на одном компьютере, всегда можно будет прочитать и распечатать на другом компьютере.

Такая всеобщая договоренность об одинаковом использовании чего-либо называется стандартом. Стандарт устанавливает таблицу, в которой записано, каким кодом должен кодироваться каждый символ. Такая таблица называется таблицей кодов. В этой таблице должно быть 256 строк, в которых записывается, какой байт какому символу соответствует.

Но здесь-то и начались проблемы. Дело в том, что символы, которые хороши для одной страны, не подходят для другой. В Греции используются одни буквы, в Турции — другие. То, что подходит для Америки, не годится для России, а то, что подходит для России, не подходит для Германии.

Поэтому было принято следующее решение. Таблицу кодов разделили пополам. Первые 128 кодов (с 0 до 127) должны быть стандартными и обязательными для всех стран и всех компьютеров, а во второй половине (с кода 128 до кода 255) каждая страна может делать все, что ей угодно, и создавать в этой половине свой стандарт — национальный.

Первую (международную) половину таблицы кодов называют таблицей ASCII ее ввел американский институт стандартизации ANSI. В этой таблице размещаются прописные и строчные буквы английского алфавита, символы чисел от 0 до 9, все знаки препинания, символы арифметических операций и некоторые другие специальные коды.

За вторую половину кодовой таблицы (коды от 128 до 255) стандарт ASCII не отвечает Разные страны могут создавать здесь свои таблицы. Часто бывает, что даже в одной стране в этой половине действуют несколько разных стандартов, предназначенных для разных компьютерных систем. В России, например, содержание этой половины таблицы может подчиняться четырем разным стандартам, каждый из которых действует в какой-то своей, особой области.

Коды ASCII по-русски произносят как а эс-цэ-и, а иногда (в просторечии) еще проще аски-коды.

Стандартная кодировка ASCII

В русском алфавите буква А имеет первое место, а буква Б – второе. У каждой буквы есть своя позиция. Буква Я имеет позицию номер 33. Мы можем считать, что алфавит — это таблица для кодирования букв.

Стандарт ASCII — это тоже как бы «алфавит», только компьютерный. Он тоже определяет номер каждого символа. Но символов больше, чем букв, потому что к ним относятся еще и цифры, и знаки препинания, и некоторые специальные символы.

Выше мы сказали, что с помощью одного байта можно закодировать 256 разных символов. Еще мы узнали, что стандарт ASCII определяет первую половину кодовой таблицы, то есть, кодировку символов, имеющих номера до 127. Но это не совсем так. На самом деле стандарт ASCII первые 32 кода (от 0 до 31) не определяет. Он оставляет их для так называемых управляющих кодов, которые не используются для представления информации, а применяются для управления компьютерами. Эти коды отданы на усмотрение производителей компьютерных систем (у них есть свои соглашения и свои стандарты по применению этих кодов). Еще несколько лет назад людям, работающим с компьютерами, стоило знать некоторые из этих кодов, но сегодня это уже не требуется.

Самый первый символ стандарта ASCII — это ПРОБЕЛ. Он имеет код 32.

За ним идут специальные символы и знаки препинания (коды с 33 по 47).

Далее идут десять цифр (коды 48-57).

Коды 58—64 используют некоторые математические символы и знаки препинания.

Самое интересное начинается с кодов 65—90. Ими обозначают прописные английские буква от А до Z

Коды 91—96 используются для специальных символов.

Коды 97—122 — строчные буквы английского алфавита.

Коды 123-127 — специальные символы.

Коды верхней половины таблицы символов (128-255) отданы для национальных стандартов. Когда мы узнаем о компьютере немного больше, мы разберемся с несколькими российскими стандартами и посмотрим, как кодируются буквы русского языка.

Имея под рукой кодовую таблицу символов, вы можете легко определить, какие слова закодированы следующими байтами

67 79 77 80 85 84 69 82 99 111 109 112 117 116 101 114

У вас раскодирование информации займет пару минут. Компьютер сделает это за несколько миллионных долей секунды.

Кодирование цветовой информации

С помощью одного байта можно закодировать 256 разных значений. Мы уже знаем, что этого вполне хватает и на русские, и на английские буквы и на знаки препинания. А давайте посмотрим, хватит ли этою для кодирования графической информации. И начнем с кодирования цвета.

Легко догадайся, что одним байтом можно закодировать 256 различных цветов. В принципе, этого достаточно для рисованных изображений типа тех, что мы видим в мульфильмах, но для полноцветных изображении живой природы — недостаточно. Человеческий глаз — не самый совершенный инструмент, но и он может различать десятки миллионов цветовых оттенков.

А что, если на кодирование цвета одной точки отдать не один байт, а два, то есть, не 8 битов, а 16. Мы уже знаем, что добавление каждого бита увеличивает в два раза количество кодируемых значений. Добавление восьми битов восемь раз удвоит это количество, то есть увеличит его в 256 раз (2х2х2х2х2х2х2х2=256) Двумя байтами можно закодировать 256х256=65 536 различных цветов. Это уже лучше и похоже на то, что мы видим на фотографиях и на картинках в журналах, но все равно хуже, чем в живой природе.

Если для кодирования цвета одной точки использовать 3 байта (24 бита), то количество возможных цветов увеличится еще в 256 раз и достигнет 16,5 миллионов. Этот режим позволяет хранить, обрабатывать и передавать изображения, не уступающие по качеству наблюдаемым в живой природе.

Возможно, вы знаете, что любой цвет можно представить в виде комбинации трех основных цветов: красного, зеленого и синего (их называют цветовыми составляющими). Если мы кодируем цвет точки с помощью трех байтов, то первый байт выделяется красной составляющей, второй — зеленой, а третий — синей. Чем больше значение байта цветовой составляющей, тем ярче этот цвет.

Белый цвет. Если точка имеет белый цвет, значит, у нее есть все цветовые составляющие, и они имеют полную яркость. Поэтому белый цвет колируется тремя полными байтами 255, 255, 255.

Черный цвет. Он означает отсутствие всех прочих цветов. Все цветовые составляющие равны нулю. Черный цвет кодируется байтами 0, 0, 0.

Серый цвет. Это цвет, промежуточный между черным и белым. В нем есть все цветовые составляющие, но они одинаковы и нейтрализуют друг друга. Например, серый цвет может быть таким 100, 100, 100 или таким: 150, 150, 150. Можно догадаться, что во втором случае яркость выше, и второй вариант серого цвета светлее первого.

Красный цвет. У него все составляющие, кроме красной, равны нулю. Это может быть, например, темно-красный цвет: 128, 0, 0 или ярко-красный: 255, 0, 0.

То же относится и к синему цвету (0, 0, 255) и к зеленому (0, 255, 0).

Задавая любые значения (от 0 до 255) для каждого из трех байтов, с помощью которых кодируется цвет, можно закодировать любой из 16,5 миллионов цветов.

Кодирование графической информации

Итак, мы уже умеем с помощью чисел кодировать цвет одной точки. На это необходимы один, два или три байта, в зависимости от того, сколько цветов мы хотим передать. А как закодировать целый рисунок?

Решение приходит само собой — надо рисунок разбить на точки. Чем больше будет точек и чем мельче они будут, тем точнее будет передача рисунка. А когда рисунок разбит на точки, то можно начать с его левого верхнего угла и, двигаясь по строкам слева направо, кодировать цвет каждой точки.

Взгляните на рисунок справа. Книжка у нас черно-белая, и цветной рисунок в ней показать нельзя, поэтому мы не будем кодировать точки этого рисунка тремя байтами — нам достаточно и одного байта на каждую точку.

Код 0 обозначает черную точку, код 255 — белую. Коды 1-254 обозначают серые точки. Чем выше значение кода, тем светлее точка.

Когда все точки рисунка закодированы, получается следующая последовательность байтов:

176, 176, 176, 128, 64, 64, 64, 80, 64, 64, 80, 80, 80, 80, 80…

Если бы рисунок был цветным, то для каждой точки вместо одного байта стояло бы три байта и вся последовательность была бы втрое длиннее.

Закодировать рисунок оказалось несложно, а вот как его раскодировать, чтобы опять получить то, что было? Если раскодировать байты по одному слева направо, то никогда не узнаешь, где кончается одна строка и начинается другая.

Это говорит о том, что нам чего-то не хватает. Значит, мы что-то важное упустили из виду. Если бы перед группой байтов приписать еще небольшой заголовок, из которого было бы ясно, как надо эти байты раскодировать, то все стало бы на свои места. Этот заголовок может быть, например таким: {8х8}. По нему можно догадаться, что рисунок должен состоять из восьми строк по восемь точек в каждой строке.

Заголовок можно сделать еще подробнее, например так: {8х8х3} — тогда можно догадаться, что это рисунок цветной, в котором на кодирование цвета каждой точки использовано три байта.

Заголовок помогает решить многие вопросы, но возникает новая проблема. Как компьютер разберется, где заголовок, а где сама информация? Ведь заголовок тоже должен быть записан в виде байтов. Сумеет ли компьютер отличить байты заголовка от байтов информации? Далее мы с этим разберемся.

Понятие формата информации

Идея представить любую информацию в виде чисел и закодировать их байтами очень рациональна. Компьютеру удобно работать, когда тексты, звуки, рисунки и видеофильмы представлены в виде байтов со значениями от 0 до 255. Непонятно только, как он отличит, где и что записано.

Возьмем несколько байтов: 70, 79, 82, 77, 65, 84. Что здесь записано?

• Может быть, это две цветные точки: первая с цветом 70, 79, 82, а вторая: 77, 65, 84?

• Может быть, это шесть серых точек (одни чуть светлее, а другие чуть темнее).

• Может быть, этими байтами закодирована дата и время запуска очередного спутника Земли?

• Может быть, это начало какой-то музыкальной мелодии?

Это может быть вообще все, что угодно, в том числе и английское слово FORMAT, закодированное по стандарту ASCII (проверьте, не так ли это на самом деле).

Если компьютер не знает, что выражает каждая группа байтов, он не сможет ничего с ней сделать. Он должен различать, где байтами закодирован текст, а где музыка и рисунки. Тексты должны всегда оставаться текстами, числа — числами, даты — датами, рисунки — рисунками, музыка — музыкой, а деньги, хранящиеся в банковском компьютере в виде тех же самых байтов, должны оставаться деньгами и не превращаться в звук и музыку.

Решение этой проблемы опять-таки связано с заголовком. Если бы перед группой байтов стоял специальный заголовок, то компьютер точно знал бы, что эти байты обозначают. А чтобы компьютер знал, где кончаются байты заголовка и начинаются байты данных, заголовок и данные должны иметь строго определенный формат. Для разных видов информации используются разные форматы. Например, если это черно-белая картинка, то каждый байт после заголовка определяет яркость точки, а если это цветная картинка, то цвет одной точки может определять не один байт, а несколько байтов.

Понятие о файле

Итак, мы поняли, что любая последовательность байтов может выражать все что угодно, но надо знать, в каком формате информация записана, есть ли у нее заголовок, где он начинается и где заканчивается.

Если мы пишем контрольную работу на отдельных листочках, а потом сдаем ее учителю на проверку, то как учитель узнает, какой ученик написал какую работу? Очень просто — каждый ученик свою работу подписывает, то есть выполнит регистрацию.

Точно так же и в компьютере. Каждая последовательность байтов, содержащая информацию определенного типа, должна быть зарегистрирована. После регистрации эта последовательность получает уникальное имя и называется файлом. Любая информация, сохраняемая на компьютере, должна быть зарегистрирована как файл.

Мы уже говорили о том, что наименьшей единицей представления информации является бит. Наименьшей единицей обработки или передачи информации является байт. Теперь мы узнали наименьшую единицу хранения информации — это файл. Ни байт, ни бит нельзя сохранить в качестве информации, поскольку непонятно, что они обозначают (то ли буквы, то ли ноты, то ли еще что-то). Файл можно сохранить, потому что он регистрируется, даже если в нем только один байт.

Простой пример. Если зайти в школьную библиотеку и попросить выдать букву «А», то библиотекарь этого сделать не сможет, хотя у него есть тысячи книг, в которых встречаются миллионы букв «А». Буквы в библиотеке не зарегистрированы. Другое дело — книги, журналы, газеты. Выбирайте любую по каталогу. Они зарегистрированы. В них вы найдете нужную информацию.

Файл — это наименьшая единица хранения информации, содержащая последовательность байтов и имеющая уникальное имя.

По имени файла компьютер определяет, где файл находится, какая информация в нем содержится, в каком формате она записана и какими программами ее можно обработать. Имя файла имеет очень большое значение, и мы к нему обязательно вернемся, но сделаем это несколько позже.

www.ronl.ru

Доклад – Понятие информация – Информатика

МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ ФЕДЕРАЦИИ ФЕДЕРАЛЬНОЕ АГЕНСТВО ПО ОБРАЗОВАНИЮ РОСТОВСКИЙ ГОСУДАРСТВЕННЫЙ ЭКОНОМИСЧЕСКИЙ УНИВЕРСИТЕТ

Кафедра Информатики

РЕФЕРАТ

на тему: «Понятие информация»

Выполнил студент:

Алексашин Сергей

Факультета

Экономика и управление на

предприятии

Группы 111 – зк

Номер зачётной книжки 00110

Научный руководитель:

Ростов – на – Дону – 2011г.

План:

Стр.

Введение 3

1. Понятие «информация» 4-5

2. Архивация информации. Программы-архиваторы. 6-7

3. Текстовый процессор 8

Заключение 9

Литература 10

Введение

Революция в автоматизации делопроизводства в офисе в 80-е годы прошлого века стала реально возможна в связи с созданием и широким распространением персональных компьютеров. Персональные компьютеры в первую очередь вытеснили из обращения печатающие машинки, составляющие основу технических средств подготовки печатных документов. Преимущества компьютера, оснащенного специальным текстовым процессором (редактором), перед печатающей машинкой были явными и заключались в том, что обеспечивали значительное повышение удобства, производительности выполнения работ и, самое главное, повышение качества получаемых при этом документов. Разделение во времени этапов подготовки документа, таких, как ввод, редактирование, оформление, подготовка к печати и собственно сама печать сделали процесс создания документа более простым и технологичным.

Понятие «информация»

Слово «информация» происходит от латинского слова informatio, что в переводе означает сведение, разъяснение, ознакомление.

Информация может существовать в виде:

· текстов, рисунков, чертежей, фотографий;

· световых или звуковых сигналов;

· радиоволн;

· электрических и нервных импульсов;

· магнитных записей;

· жестов и мимики;

· запахов и вкусовых ощущений;

· хромосом, посредством которых передаются по наследству признаки и свойства организмов и т.д.

Современные компьютеры могут работать с пятью видами информации:

o числовой;

o текстовой;

o графической;

o звуковой;

o видеоинформацией.

Понятие «информация» является базовым в курсе информатики, невозможно дать его определение через другие, более «простые» понятия. Данное понятие используется в различных науках (информатике, кибернетике, биологии, физике и др.), при этом в каждой науке понятие «информация» связано с различными системами понятий.

Информация в физике. В физике мерой беспорядка, хаоса для термодинамической системы является энтропия системы, тогда как информация (антиэнтропия) является мерой упорядоченности и сложности системы. По мере увеличения сложности системы величина энтропии уменьшается, и величина информации увеличивается. Процесс увеличения информации характерен для открытых, обменивающихся веществом и энергией с окружающей средой, саморазвивающихся систем живой природы (белковых молекул, организмов, популяций животных и так далее).

Таким образом, в физике информация рассматривается как антиэнтропия или энтропия с обратным знаком.

Информация в биологии. В биологии понятие «информация» связывается с целесообразным поведением живых организмов. Такое поведение строится на основе получения и использования организмом информации об окружающей среде.

Понятие «информация» в биологии используется также в связи с исследованиями механизмов наследственности. Генетическая информация передается по наследству и хранится во всех клетках живых организмов. Гены представляют собой сложные молекулярные структуры, содержащие информацию о строении живых организмов. Последнее обстоятельство позволило проводить научные эксперименты по клонированию, то есть созданию точных копий организмов из одной клетки.

Информация в кибернетике. В кибернетике (наука об управлении) понятие «информация» связано с процессами управления в сложных системах (в живых организмах или технических устройствах). Жизнедеятельность любого организма или нормальное функционирование технического устройства зависит от процессов управления, благодаря которым поддерживаются в необходимых пределах значения их параметров. Процессы управления включают в себя получение, хранение, преобразования и передачу информации.[1]

Архивация информации

Возможность уплотнения данных основана на том, что информация часто обладает избыточностью, которая зависит от вида информации. Случайная потеря 10% фотографии, скорее всего, не повлияет на ее информативность. Если на странице книги отсутствует 10% строк, то понять ее содержание уже трудно. Если взять программный код, в котором утрачено 10% информации, то восстановить его, скорее всего, уже не удастся. У этих видов данных разная избыточность. Несмотря на то, что объемы внешней памяти ЭВМ постоянно растут, потребность в архивации не уменьшается. Это объясняется тем, что архивация необходима не только для экономии места в памяти, но и для надежного хранения копий ценной информации, а также для быстрой передачи информации по сети на другие ЭВМ. Кроме того, возможность отказа магнитных носителей информации, разрушающее действие вирусов заставляет пользователей делать резервное копирование ценной информации на другие (запасные) носители информации.

Процесс записи файла в архивный файл называется архивированием (упаковкой, сжатием), а извлечение файла из архива – разархивированием (распаковкой).

Упакованный (сжатый) файл называется архивом. Архив содержит оглавление, позволяющее узнать, какие файлы содержатся в архиве.

Программы-архиваторы.

Различными разработчиками были созданы специальные программы для архивации файлов. Часть из них распространяется бесплатно, часть — на коммерческой основе (за плату), но большинство программ такого рода распространяются как “Shareware”. т.е. они могут быть получены бесплатно, но если Вы хотите их использовать постоянно, то должны выслать авторам или распространителям указанное (обычно небольшое, до 50 дол.) вознаграждение.

Как правило, программы для архивации файлов позволяют помещать копии файлов на диске в сжатом виде в архивный файл, извлекать файлы из архива, просматривать оглавление архива и т.д. Разные программы отличаются форматом архивных файлов, скоростью работы, степенью сжатия файлов при помещении в архив, удобством использования.

Наиболее распространенные программы-архиваторы имеют приблизительно одинаковые возможности и ни одна из них не превосходит другие по всем параметрам: одни программы работают быстрее, другие обеспечивают лучшую степень сжатия файлов. Даже если сравнивать программы только по степени сжатия, то среди них нет лидера: разные файлы лучше сжимаются разными программами.

Принцип работы архиваторов основан на поиске в файле «избыточной» информации и последующем ее кодировании с целью получения минимального объема. Самым известным методом архивации файлов является сжатие последовательностей одинаковых символов.

Текстовый процессор

Текстовый процессор — вид прикладной компьютерной программы, предназначенной для производства (включая набор, редактирование, форматирование, иногда печать) любого вида печатной информации. Иногда текстовый процессор называют текстовым редактором второго рода.

Текстовыми процессорами в 1970-е — 1980-е годы называли предназначенные для набора и печати текстов машины индивидуального и офисного использования, состоящие из клавиатуры, встроенного компьютера для простейшего редактирования текста, а также электрического печатного устройства. Позднее наименование «текстовый процессор» стало использоваться для компьютерных программ, предназначенных для аналогичного использования.

Текстовые процессоры, в отличие от текстовых редакторов, имеют больше возможностей для форматирования текста, внедрения в него графики, формул, таблиц и других объектов. Поэтому они могут быть использованы не только для набора текстов, но и для создания различного рода документов, в том числе официальных. Классическим примером текстового процессора является Microsoft Word.

Заключение

Передача информации – очень необходимая вещь для каждого человека и всего человечества в целом. Информатизация общества в настоящее время достигает новых вершин. Это связано с возникновением новых современных информационных технологий, позволяющих человеку увеличивать объемы обрабатываемой и передаваемой информации. Главным предметом обработки и передачи информации является персональный компьютер. Все чаще передача информации между различными организациями или юридическими лицами осуществляется через локальные или глобальные компьютерные сети, что заставляет общество все глубже изучать этапы и способы передачи информации.

Таким образом, тема передачи информации остается актуальной и в современном мире.

Список используемой литературы:

1. Н.Угринович «Информатика и информационные технологии», Москва, 2003 года издания.

2. С.Симонович, Г.Евсеев «Занимательный компьютер», Москва, 2002 года издания.

3. Леонтьев В.П., «Новейшая энциклопедия персонального компьютера», Москва, 2003 года издания.

4. Фигурнов В.А., «ПК для начинающих», Москва, 1995 года издания.

Большеви́зм (от большевик) — революционное марксистское течение политической мысли и политическое движение, связанное с формированием партии социальной революции, как авангарда рабочего класса, последовательным интернационализмом и постановкой социального эксперимента: взятием власти до созревания всех необходимых предпосылок[1]. Зародилось в начале XX века и было связанно с РСДРП(б). Большевизм существует, как течение политической мысли и как политическая партия, с 1903 года.

— Ленин В.И. Детская болезнь «левизны» в коммунизме // Ленин В.И.: Полн.собр.соч. — Т. 41. — С. 6.[2] текст

Основным теоретиком большевизма был Ленин, кроме него к теоретикам большевизма относятся Николай Бухарин, Евгений Преображенский, Лев Троцкий и Роза Люксембург[1].

Некоторые исследователи[3] к большевистской теории относят и деятельность И. В. Сталина, возглавлявшего Всесоюзную коммунистическую партию (большевиков) и одновременно обладавшего всей полнотой государственной власти в СССР. Однако другие (как современники Сталина, так и более поздние) не смешивают собственно «большевизм» и «сталинизм», считая их разнонаправленными (революционным и термидорианским) явлениями[4].

Выражение «большевизм» как и впоследствии «коммунизм» устоялось в западной историографии как взгляд на совокупность особенностей советского режима в определенный политический период. В настоящее время самоназвание «большевики» активно используют различные группы сталинистов и троцкистов.

[1] Н.Угринович «Информатика и информационные технологии», М.: 2003г.-с.58

www.ronl.ru

Доклад – Свойства информации – Информатика

Итак, информация является динамическим объектом, образующимся в момент вза­имодействия объективных данных и субъективных методов. Как и всякий объект, она обладает свойствами (объекты различимы по своим свойствам). Характерной особенностью информации, отличающей ее от других объектов природы и обще­ства, является отмеченный выше дуализм: на свойства информации влияют как свойства данных, составляющих ее содержательную часть, так и свойства методов, взаимодействующих с данными в ходе информационного процесса. По окончании процесса свойства информации переносятся на свойства новых данных, то есть свойства методов могут переходить на свойства данных.

Можно привести немало разнообразных свойств информации. Каждая научная дис­циплина рассматривает те свойства, которые ей наиболее важны. С точки зрения информатики наиболее важными представляются следующие свойства: объективность, полнота, достоверность, адекватность, доступность и актуальность информации.

Объективность и субъективность информации. Понятие объективности информации является относительным. Это понятно, если учесть, что методы являются субъек­тивными. Более объективной принято считать ту информацию, в которую методы вносят меньший субъективный элемент. Так, например, принято считать, что в результате наблюдения фотоснимка природного объекта или явления образуется более объективная информация, чем в результате наблюдения рисунка того же объекта, выполненного человеком. В ходе информационного процесса степень объективности информации всегда понижается. Это свойство учитываю^, например, в правовых дисциплинах, где по-разному обрабатываются показания лиц, непосред­ственно наблюдавших события или получивших информацию косвенным путем (посредством умозаключений или со слов третьих лиц). В не меньшей степени объективность информации учитывают в исторических дисциплинах. Одни и те же события, зафиксированные в исторических документах разных стран и народов, выглядят совершенно по-разному. У историков имеются свои методы для тестирования объективности исторических данных и создания новых, более достоверных данных путем сопоставления, фильтрации и селекции исходных данных. Обратим внимание на то, что здесь речь идет не о повышении объективности данных, а о повышении их достоверности (это совсем другое свойство).

Полнота информации. Полнота информации во многом характеризует качество информации и определяет достаточность данных для принятия решений или для создания новых данных на основе имеющихся. Чем полнее данные, тем шире диапа­зон методов, которые можно использовать, тем проще подобрать метод, вносящий минимум погрешностей в ход информационного процесса.

Достоверность информации. Данные возникают в момент регистрации сигналов, но не все сигналы являются «полезными» — всегда присутствует какой-то уровень посторонних сигналов, в результате чего полезные данные сопровождаются опреде­ленным уровнем «информационного шума». Если полезный сигнал зарегистрирован более четко, чем посторонние сигналы, достоверность информации может быть более высокой. При увеличении уровня шумов достоверность информации снижа­ется. В этом случае для передачи того же количества информации требуется исполь­зовать либо больше данных, либо более сложные методы.

Адекватность информации — это степень соответствия реальному объективному состоянию дела. Неадекватная информация может образовываться при создании новой информации на основе неполных или недостоверных данных. Однако и полные, и достоверные данные могут приводить к созданию неадекватной информации в случае применения к ним неадекватных методов.

Доступность информации — мера возможности получить ту или иную информа­цию. На степень доступности информации влияют одновременно как доступность данных, так и доступность адекватных методов для их интерпретации. Отсутствие доступа к данным или отсутствие адекватных методов обработки данных приводят к одинаковому результату: информация оказывается недоступной. Отсутствие адекват­ных методов для работы с данными во многих случаях приводит к применению неадекватных методов, в результате чего образуется неполная, неадекватная или недостоверная информация.

Актуальность информации — это степень соответствия информации текущему моменту времени. Нередко с актуальностью, как и с полнотой, связывают коммер­ческую ценность информации. Поскольку информационные процессы растянуты во времени, то достоверная и адекватная, но устаревшая информация может приво­дить к ошибочным решениям. Необходимость поиска (или разработки) адекватного метода для работы с данными может приводить к такой задержке в получении инфор­мации, что она становится неактуальной и ненужной. На этом, в частности, осно­ваны многие современные системы шифрования данных с открытым ключом. Лица, не владеющие ключом (методом) для чтения данных, могут заняться поиском ключа, поскольку алгоритм его работы доступен, но продолжительность этого поиска столь велика, что за время работы информация теряет актуальность и, соответственно, связанную с ней практическую ценность.

Данные

www.ronl.ru

Конспект лекции на тему: “Информация. Свойства информации”

Конспект лекции на тему: «Информация. Свойства информации»

План:

1. Понятие информации;

2. Классификация информации;

3. Свойства информации.

1. Понятие информации

Термин «информация» происходит от латинского слова «informatio», что означает сведения, разъяснения, изложение.

Информация – это настолько общее и глубокое понятие, что его нельзя объяснить одной фразой. В это слово вкладывается различный смысл в технике, науке и в житейских ситуациях.

В обиходе информацией называют любые данные или сведения, которые кого-либо интересуют. Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п. «Информировать» в этом смысле означает «сообщить нечто, неизвестное раньше».

Информация – сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринимают информационные системы (живые организмы, управляющие машины и др.) в процессе жизнедеятельности и работы.

Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертёж, радиопередача и т.п.) может содержать разное количество информации для разных людей – в зависимости от их предшествующих знаний, от уровня понимания этого сообщения и интереса к нему.

Так, сообщение, составленное на японском языке, не несёт никакой новой информации человеку, не знающему этого языка, но может быть высокоинформативным для человека, владеющего японским. Никакой новой информации не содержит и сообщение, изложенное на знакомом языке, если его содержание непонятно или уже известно.

Информация есть характеристика не сообщения, а соотношения между сообщением и его потребителем. Без наличия потребителя, хотя бы потенциального, говорить об информации бессмысленно.

В случаях, когда говорят об автоматизированной работе с информацией посредством каких-либо технических устройств, обычно в первую очередь интересуются не содержанием сообщения, а тем, сколько символов это сообщение содержит.

Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объём сообщения.

2. Классификация информации

Основные виды информации по ее форме представления, способам ее кодирования и хранения, что имеет наибольшее значение для информатики, это:

– графическая или изобразительная – первый вид, для которого был реализован способ хранения информации об окружающем мире в виде наскальных рисунков, а позднее в виде картин, фотографий, схем, чертежей на бумаге, холсте, мраморе и др. материалах, изображающих картины реального мира;

– звуковая (акустическая) – мир вокруг нас полон звуков и задача их хранения и тиражирования была решена с изобретением звукозаписывающих устройств в 1877 г.; ее разновидностью является музыкальная информация – для этого вида был изобретен способ кодирования с использованием специальных символов, что делает возможным хранение ее аналогично графической информации;

– текстовая – способ кодирования речи человека специальными символами – буквами, причем разные народы имеют разные языки и используют различные наборы букв для отображения речи; особенно большое значение этот способ приобрел после изобретения бумаги и книгопечатания;

– числовая – количественная мера объектов и их свойств в окружающем мире; особенно большое значение приобрела с развитием торговли, экономики и денежного обмена; аналогично текстовой информации для ее отображения используется метод кодирования специальными символами – цифрами, причем системы кодирования (счисления) могут быть разными;

– видеоинформация – способ сохранения «живых» картин окружающего мира, появившийся с изобретением кино.

Существуют также виды информации, для которых до сих пор не изобретено способов их кодирования и хранения – это тактильная информация, передаваемая ощущениями, органолептическая, передаваемая запахами и вкусами и др.

Особым видом информации в настоящее время можно считать информацию, представленную в глобальной сети Интернет. Здесь используются особые приемы хранения, обработки, поиска и передачи распределенной информации больших объемов и особые способы работы с различными видами информации. Постоянно совершенствуется программное обеспечение, обеспечивающее коллективную работу с информацией всех видов.

3. Свойства информации

Как и всякий объект, информация обладает свойствами. Характерной отличительной особенностью информации от других объектов природы и общества, является дуализм: на свойства информации влияют как свойства исходных данных, составляющих ее содержательную часть, так и свойства методов, фиксирующих эту информацию.

С точки зрения информатики, наиболее важными представляются следующие общие качественные свойства:

1. Объективность информации. Понятие объективности информации относительно. Более объективной является та информация, в которую методы обработки вносят меньше субъективности. Например, в результате наблюдения фотоснимка природного объекта образуется более объективная информация, чем при наблюдении рисунка того же объекта. В ходе информационного процесса объективность информации всегда понижается.

2. Полнота информации. Полнота информации характеризует достаточность данных для принятия решения. Чем полнее данные, тем шире диапазон используемых методов их обработки и тем проще подобрать метод, вносящий минимум погрешности в информационный процесс.

3. Адекватность информации. Это степень её соответствия реальному состоянию дел. Неадекватная информация может образовываться при создании новой информации на основе неполных или недостоверных данных. Однако полные и достоверные данные могут приводить к созданию неадекватной информации в случае применения к ним неадекватных методов.

4. Доступность информации. Это мера возможности получить информацию. Отсутствие доступа к данным или отсутствие адекватных методов их обработки приводят к тому, что информация оказывается недоступной.

5. Актуальность информации. Это степень соответствия информации текущему моменту времени. Поскольку информационные процессы растянуты во времени, то достоверная и адекватная, но устаревшая информация может приводить к ошибочным решениям. Необходимость поиска или разработки адекватного метода обработки данных может приводить к такой задержке в получении информации, что она становится ненужной.

Вопросы и задания:

1. Дайте определение информации?

2. Приведите классификацию информации?

3. Что понимается под особым видом информации?

4. Что является характерной отличительной особенностью информации от других объектов природы и общества?

5. Перечислите и охарактеризуйте основные свойства информации?

Литература:

1. Семакин И.Г. Информатика и ИКТ. Базовый уровень: учебник для 10-11 классов / И.Г. Семакин, Е.К. Хеннер. – 8-е изд. – М.: БИНОМ. Лаборатория знаний, 2012. – 246 с.: ил.

2. Романова Ю.Д. Информатика и информационные технологии. Конспект лекций: учеб. пособие / Ю.Д. Романова, И.Г. Лесничная. – 2-е изд., перераб и доп. – М.: Эксмо, 2009. – 320 с. – (Учебный курс: кратко и доступно).

3. Виды информации и её свойства / [Электронный ресурс] / Режим доступа: https://ru.wikibooks.org/wiki/Виды_информации_и_её_свойства.

infourok.ru

Оставить комментарий