Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Cвойства информации




Объемный подход

Частотность букв русского языка

i Символ P(i) I Символ P(i) I Символ P(i)
  _ 0.175   Л 0.035   Б 0.014
  О 0.090   К 0.028   Г 0.012
  Е 0.072   М 0.026   Ч 0.012
  Ё 0.072   Д 0.025   Й 0.010
  А 0.062   П 0.023   Х 0.009
  И 0.062   У 0.021   Ж 0.007
  T 0.053   Я 0.018   Ю 0.006
  H 0.053   Ы 0.016   Ш 0.006
  C 0.045   З 0.016   Ц 0.004
  P 0.040   Ь 0.014   Щ 0.003
  B 0.038   Ъ 0.014   Э 0.003
              Ф 0.002

 

Рассмотрим алфавит, состоящий из двух знаков 0 и 1. Если считать, что со знаками 0 и 1 в двоичном алфавите связаны одинаковые вероятности их появления (P(0)=P(1)= 0.5), то количество информации на один знак при двоичном кодировании будет равно H = log22 = 1 бит.

Таким образом, количество информации (в битах), заключенное в двоичном слове, равно числу двоичных знаков в нем.

В двоичной системе счисления знаки 0 и 1 называют битами (от английского выражения Binary digits — двоичные цифры). В компьютере бит является наименьшей возможной единицей информации. Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации, подсчитывается по количеству требуемых для такой записи двоичных символов.

1 байт информации = 8 бит

1 килобайт (Кбайт) = 1024 байта

1 мегабайт (Мбайт) =1024 килобайта

1 гигабайт (Гбайт) =1024 мегабайт.

В прикладной информатике практически всегда количество информации понимается в объемном смысле.

 

 

Основные свойства информации:

· актуальность;

· надежность;

· достоверность;

· полнота;

· доступность;

· понятность и др.

В социальном плане появляются такие свойства, как истинность, своевременность, ценность, полнота и т.д. Их невозможно оценить в терминах «уменьшение неопределенности» (вероятностный подход) или числа символов (объемный подход). Обращение к качественной стороне информации породило иные подходы к ее оценке:

· аксиологический;

· семантический.

При аксиологическом подходе стремятся исходить из ценности, практической значимости информации, т.е. качественных характеристик, значимых в социальной системе.

При семантическом подходе информация рассматривается как с точки зрения формы, так и содержания. При этом информацию связывают с тезаурусом, т.е. полнотой систематизированного набора данных о предмете информации.

Понятие информации нельзя считать лишь техническим, междисциплинарным и даже наддисциплинарным термином. Информация — это фундаментальная философская категория.

Физическая трактовка информации построена на основе аналогии формулы Больцмана, описывающей энтропию статистической системы материальных частиц, и формулы Хартли.

Информацию следует считать особым видом ресурса, при этом имеется в виду толкование «ресурса» как запаса неких знаний материальных предметов или энергетических, структурных или каких-либо других характеристик предмета. В связи с таким взглядом центральными становятся следующие свойства информации:

· запоминаемость,

· передаваемость,

· преобразуемость,

· воспроизводимость,

· стираемость.

В настоящее время ученые стараются построить единую теорию, которая призвана формализовать понятие информации и информационного процесса, описать превращения информации в процессах самой разной природы. Информационные аспекты в разных системах составляют предмет новой междисциплинарной науки — синергетики.

Высшей формой информации, проявляющейся в управлении в социальных системах, являются знания. Это наддисциплинарное понятие, широко используемое в педагогике и исследованиях по искусственному интеллекту, также претендует на роль важнейшей философской категории.




Поделиться с друзьями:


Дата добавления: 2014-01-05; Просмотров: 1150; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.009 сек.