Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Понятие о сенсорных системах. Абсолютные и дифференциальные пороги

Общая схема съема, передачи и регистрации информации.

Информационная энтропия. Формула Хартли и Шеннона.

Количество информации, содержащейся в сообщении, численно равно энтропии, исчезающей после получения сообщения.

Информация. Количество информации. Единицы количества информации.

 

Ожидаемым событиям присуща неопределенность, которая затем устраняется по мере поступления информации. Согласно Шеннону, информация – это мера того количества неопределенности, которая устраняется после получения сообщения. Информация – это совокупность сведений, сообщений о явлениях, процессах, предметах, привносящих новые знания об этих явлениях. Мерой неопределенности событий является энтропия.

Информационная энтропия имеет одинаковую размерность с информацией. Единицами количества информации являются: БИТ, ДИТ, НИТ (в зависимости от основания логарифма). БИТ – если основание логарифма 2, ДИТ - 10, а НИТ – когда это основание натурального логарифма. Бит – это количество информации, заключенное в сообщении о том, что произошло одно из двух равновероятных событий. 1000 байт называется килобайтом.

 

Энтропия является мерой неопределенности событий. Если система может находиться только в одном состоянии, то энтропия имеет минимальное значение равное нулю. Энтропия системы принимает максимальное значение в случае, если все состояния системы равновероятны. Информация, содержащаяся в сообщении, численно равна энтропии, исчезающей после получения сообщения.

Количество информации, соответствующее наступлению какого-либо одного из N равновероятных событий, рассчитывается по формуле Хартли: Н = log N = - logР. (Так как Р = 1/ N = N -1)

Если события неравновозможные, то информационная энтропия рассчитывается по формуле К.Шеннона:

Н = - S PilogPi, где Pi – вероятность i -того события.

 

Общая схема системы передачи информации состоит из: источника сообщения, кодирующего устройства, канала связи, декодирующего устройства и приемника сообщения. Каналом связи называется среда, по которой передаются сигналы. Канал связи характеризуется пропускной способностью. Пропускной способностью С канала связи называется максимальное количество информации, которое можно передать по каналу связи в единицу времени. Она находится по формуле: С = H / t [бит/с ]. Где Н – количество информации, а t – время, за которое оно было передано.

канал

Кодирующее устройство
приемник
Декодирующее устройство
Источник информации
связи

 

 

 

СЕНСОРНЫМИ (чувствительными) называются системы, с помощью которых осуществляется процесс кодирования, передачи и обработки информации о внешних раздражениях.

Абсолютный порог - это минимальное значение силы стимула вызывающее ощущения.

Болевой или максимальный порог - максимальное значение силы стимула, вызывающее ощущение (выше этого уровня появляется чувство боли).

Дифференциальный порог - минимальное отличие между силой, действующих стимулов, при котором они воспринимаются как различные.

Дифференциальный временной порог – наименьшее время между действием двух раздражителей, при котором последние воспринимаются как раздельные.

Дифференциальный пространственный порог - наименьшее расстояние между раздражителями, при котором они воспринимаются как раздельные.

24. Элементы психофизики. Связь между изменением интенсивности ощущения с изменением силы раздражителя (законы Вебера, Вебера – Фехнера и Стивенса).

Закон Вебера: отношение между приростом раздражителя, едва заметно отличающимся от его исходного значения и исходным значением раздражителя есть величина постоянная: DR/R = const

Закон Вебера - Фехнера устанавливает взаимосвязь между ощущениями и вызвавшими их раздражителями: E = k ln R / Ro, или:

E = c log r, где r = R / Ro, E - ощущения, R - действующий раздражитель, а Rо - пороговое значение раздражителя, k - коэффициент зависящий от органов чувств.

Закон Стивенса имеет вид:

I = k (S - So)n, в котором, I - интенсивность ощущения, Sо - пороговая и S - действующая сила раздражения, k - константа. Показатель степени n в этой функции для различных сенсорных систем и различных видов раздражений может отличаться от единицы как в большую, так и в меньшую сторону.

  1. ПРЕДМЕТ и метод биофизики. Связь биофизики с другими естественными науками.

Биофизика - наука, изучающая физические свойства биологических объектов (БО), физические и физико-химические процессы, протекающие в этих объектах и лежащие в основе их функционирования.

ПРЕДМЕТОМ медицинской биофизики является изучение организма человека и процессов, связанных с нарушением жизнедеятельности в этом организме.

МЕТОД Ы биофизики - большинство методов заимствовано из физики или физической химии, существенно измененные с учетом требований, налагаемых БО и задачами исследований, например, дифференциальные спектрофотометры, спектрофлюориметры и т.д., а также принципиально новыми - как метод рентгеноструктурного анализа.

Успехи биофизики во многом зависят от достижений других наук. Своему бурному развитию в последние 10 - 15 лет, биофизика обязана развитию таких наук, как: молекулярной биологии и биологии клетки, физики и химии, созданием целого арсенала новейших приборов и методов исследования, внедрением методов математического моделирования, созданию микрокомпьютеров и т.д.

 

  1. Значение и особенности ТЕРМОДИНАМИЧЕСКОГО метода изучения биологических систем. Первое начало термодинамики.

Важнейшее свойство живых организмов заключается в их способности улавливать, преобразовывать и запасать энергию в различных формах.

<== предыдущая лекция | следующая лекция ==>
Корреляционной называется такая статистическая зависимость между переменными, когда определенному значению одной величины соответствует несколько значений другой величины | Обратимые и необратимые процессы. Энтропия. Термодинамическое толкование энтропии
Поделиться с друзьями:


Дата добавления: 2014-01-06; Просмотров: 557; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.012 сек.