Головна Головна -> Реферати українською -> Біологія -> Ентропійний і негентропійний принципи інформації в біології

Ентропійний і негентропійний принципи інформації в біології

Назва:
Ентропійний і негентропійний принципи інформації в біології
Тип:
Реферат
Мова:
Українська
Розмiр:
6,04 KB
Завантажень:
190
Оцінка:
 
поточна оцінка 5.0


Скачати цю роботу безкоштовно
Пролистати роботу: 1  2  3 
Реферат з біології
Ентропійний і негентропійний принципи інформації в біології


Напрямок мимовільного протікання хімічних реакцій у живий та неживій матерії визначається сукупною дією двох факторів: переходу системи у стан з найменшою внутрішньою енергією і тенденцією, яка пов’язана з досягненням найбільш можливого стану. Макроскопічний стан системи тим ймовірніший, чим більшою кількістю мікроскопічних станів вона може здійснюватись. Зазвичай кількість мікроскопічних станів, яка відповідає певному макроскопічному, дуже велика і визначається не можливістю здійснення цього макростану, а величиною, пропорційною її логарифму. Ця величина називається ентропією і є однією з термодинамічних величин (внутрішня енергія, ентальпія, ентропія і енергія Гіббса), за допомогою яких можна виразити кількісно два вище зазначених фактори [1,2].
Кожна жива клітина уподібнюється найскладнішому хімічному заводу. Управління процесами клітин-заводів здійснюється завдяки колосальним генетично фіксованим інформаційним потокам. Інформація, яка міститься в біологічних об’єктах, є такою великою, що може досягати значних величин за шкалою ентропії. Тому слід очікувати, що інформаційний підхід дозволить пояснити значні потоки теплоти, яка виділяється біологічними об’єктами в навколишнє середовище, природу мутацій, диакінеза генів і хромосом тощо. На початкових стадіях розвитку живих організмів тепловий ефект, яким супроводжується "читання" генетичної інформації такий великий, що його не можна не зафіксувати. Саме на цих стадіях у тварин найбільш інтенсивно відбувається процес поділу клітин, причому збільшення їх кількості іде за експоненційним законом. При цьому процесі різко зростає кількість розподіленої інформації [3 — 5].
Поняття інформації можуть бути використані як основи єдиного підходу до різноманітних зв’язків і взаємодій у природі. Живі істоти, наприклад, не можуть існувати без ДНК, РНК сигналів і обміну. Будь-якому біологічному об’єкту можна надати ймовірності, яка буде характеризувати частоту появи його. Тому математичною основою теорії інформації, як відомо є теорія ймовірності і математична логіка. Одиницею кількості інформації стає так званий "біт" — кількість інформації, яка усуває невизначеність вибору однієї можливості з двох рівноцінних
(1)    I=log2N,
де N — кількість можливих результатів, або
(2)    I=log2Pi.
У формулі (2) I — кількість інформації, яку отримуємо при здійсненні i-тої події з N можливих при однакових їх ймовірностях, тобто Pi=1/ N і формула (2) переходить в (1). У загальному випадку кількість інформації визначається за формулою:
(3)? logPi,
де Pi - ймовірність здійснення i — тої події з N можливих. Формули (1) і (2) є випадковими для формули (3) при існуванні подій, які є рівноімовірними [5].
З теорії інформації відомо, що кількість інформації, яка вводиться до певної системи, в результаті різних перетворень не збільшується, а може або зменшуватись, або, у кращому випадку, залишатися незмінною. Це пояснюється наявністю перешкод у каналах передачі інформації. Рівень їх різко збільшується, якщо процеси неординарні. У біологічних об’єктах незначні відхилення під час передачі інформації можуть істотно змінити її зміст (якість).
Ентропія ізольованої біологічної системи пов’язана з ймовірністю її стану. Якщо наданий стан біологічної системи може здійснитися N різними засобами (наприклад, різним станом молекули), то зв’язок між ентропією S і числом N може бути виражений формулою:
(4)    S = k lnN,
де k — постійна Больцмана.
Формули (4) і (1) збігаються щодо кількості інформації і це невипадково.
Візьмемо визначену фізичну систему з ентропією S, яка може здійснюватись N різними способами. Введемо в цю систему таку кількість інформації I= log2N, щоб із N різних способів здійснення стану системи реалізувався лише один визначений (така система є системою реєстрації наданої інформації). У такому разі в формулі (4) слід прийняти N=1, а це означає, що в цьому випадку S=0, тобто одержуємо повністю упорядковану систему.

Завантажити цю роботу безкоштовно
Пролистати роботу: 1  2  3 



Реферат на тему: Ентропійний і негентропійний принципи інформації в біології

BR.com.ua © 1999-2017 | Реклама на сайті | Умови використання | Зворотній зв'язок