КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Понятие о сенсорных системах. Абсолютные и дифференциальные пороги
Общая схема съема, передачи и регистрации информации. Информационная энтропия. Формула Хартли и Шеннона. Количество информации, содержащейся в сообщении, численно равно энтропии, исчезающей после получения сообщения. Информация. Количество информации. Единицы количества информации.
Ожидаемым событиям присуща неопределенность, которая затем устраняется по мере поступления информации. Согласно Шеннону, информация – это мера того количества неопределенности, которая устраняется после получения сообщения. Информация – это совокупность сведений, сообщений о явлениях, процессах, предметах, привносящих новые знания об этих явлениях. Мерой неопределенности событий является энтропия. Информационная энтропия имеет одинаковую размерность с информацией. Единицами количества информации являются: БИТ, ДИТ, НИТ (в зависимости от основания логарифма). БИТ – если основание логарифма 2, ДИТ - 10, а НИТ – когда это основание натурального логарифма. Бит – это количество информации, заключенное в сообщении о том, что произошло одно из двух равновероятных событий. 1000 байт называется килобайтом.
Энтропия является мерой неопределенности событий. Если система может находиться только в одном состоянии, то энтропия имеет минимальное значение равное нулю. Энтропия системы принимает максимальное значение в случае, если все состояния системы равновероятны. Информация, содержащаяся в сообщении, численно равна энтропии, исчезающей после получения сообщения. Количество информации, соответствующее наступлению какого-либо одного из N равновероятных событий, рассчитывается по формуле Хартли: Н = log N = - logР. (Так как Р = 1/ N = N -1) Если события неравновозможные, то информационная энтропия рассчитывается по формуле К.Шеннона: Н = - S PilogPi, где Pi – вероятность i -того события.
Общая схема системы передачи информации состоит из: источника сообщения, кодирующего устройства, канала связи, декодирующего устройства и приемника сообщения. Каналом связи называется среда, по которой передаются сигналы. Канал связи характеризуется пропускной способностью. Пропускной способностью С канала связи называется максимальное количество информации, которое можно передать по каналу связи в единицу времени. Она находится по формуле: С = H / t [бит/с ]. Где Н – количество информации, а t – время, за которое оно было передано. канал
СЕНСОРНЫМИ (чувствительными) называются системы, с помощью которых осуществляется процесс кодирования, передачи и обработки информации о внешних раздражениях. Абсолютный порог - это минимальное значение силы стимула вызывающее ощущения. Болевой или максимальный порог - максимальное значение силы стимула, вызывающее ощущение (выше этого уровня появляется чувство боли). Дифференциальный порог - минимальное отличие между силой, действующих стимулов, при котором они воспринимаются как различные. Дифференциальный временной порог – наименьшее время между действием двух раздражителей, при котором последние воспринимаются как раздельные. Дифференциальный пространственный порог - наименьшее расстояние между раздражителями, при котором они воспринимаются как раздельные. 24. Элементы психофизики. Связь между изменением интенсивности ощущения с изменением силы раздражителя (законы Вебера, Вебера – Фехнера и Стивенса). Закон Вебера: отношение между приростом раздражителя, едва заметно отличающимся от его исходного значения и исходным значением раздражителя есть величина постоянная: DR/R = const Закон Вебера - Фехнера устанавливает взаимосвязь между ощущениями и вызвавшими их раздражителями: E = k ln R / Ro, или: E = c log r, где r = R / Ro, E - ощущения, R - действующий раздражитель, а Rо - пороговое значение раздражителя, k - коэффициент зависящий от органов чувств. Закон Стивенса имеет вид: I = k (S - So)n, в котором, I - интенсивность ощущения, Sо - пороговая и S - действующая сила раздражения, k - константа. Показатель степени n в этой функции для различных сенсорных систем и различных видов раздражений может отличаться от единицы как в большую, так и в меньшую сторону.
Биофизика - наука, изучающая физические свойства биологических объектов (БО), физические и физико-химические процессы, протекающие в этих объектах и лежащие в основе их функционирования. ПРЕДМЕТОМ медицинской биофизики является изучение организма человека и процессов, связанных с нарушением жизнедеятельности в этом организме. МЕТОД Ы биофизики - большинство методов заимствовано из физики или физической химии, существенно измененные с учетом требований, налагаемых БО и задачами исследований, например, дифференциальные спектрофотометры, спектрофлюориметры и т.д., а также принципиально новыми - как метод рентгеноструктурного анализа. Успехи биофизики во многом зависят от достижений других наук. Своему бурному развитию в последние 10 - 15 лет, биофизика обязана развитию таких наук, как: молекулярной биологии и биологии клетки, физики и химии, созданием целого арсенала новейших приборов и методов исследования, внедрением методов математического моделирования, созданию микрокомпьютеров и т.д.
Важнейшее свойство живых организмов заключается в их способности улавливать, преобразовывать и запасать энергию в различных формах.
Дата добавления: 2014-01-06; Просмотров: 655; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |