Поняття “інформація” у різних науках

а тільки та його частина, яка використовується для орієнтації, для активної дії, для управління"4. Справді, те знання, яке не ввійшло в ужиток, не можна вважати інформацією, бо ним не користуються інші члени суспільства, воно до них не дійшло і не може дійти.

Ми тільки почали розглядати проблему інформації, а вже переконались, що вчені по-різному трактують це поняття. З одного боку, це природно, бо різні вчені по-різному використовують інформацію, з іншого — не можна, на наш погляд, погодитися з тією точкою зору, що "немає і. . . не може бути єдиного визначення поняття "інформація"5. Попри всі особливості розгляду, головні, принципові підходи залишаються ті самі, і, таким чином, явище інформації залишається принципово те саме, різними є тільки підходи до нього.

Iснують два пiдходи до природи iнформацiї — атрибутивний i функцiональний. Прихильники першого розглядають iнформацiю як об'єктивну властивiсть усiх матерiальних об'єктiв (iнформацiя — атрибут матерiї); прихильники другого стверджують, що iнформацiя є умовою i результатом спрямованої активностi й тому вона виникає тiльки на соцiально-свiдомому рiвнi. Не викликає сумніву, що інформація, якою обмінюються члени суспільства, обов'язково пов'язана з відбиттям реальності. Ще Н. Вінер розумів під інформацією позначення змісту, який надходить із зовнішнього світу у процесі пристосування до нього людини. При цьому слід підкреслити різницю у ставленні до пошуку та обробки інформації людини та машини.

ЕОМ, безперечно, значно швидше обробляє інформацію, ніж людина, але це стосується тільки замкнутої системи. Із зовнішнім світом людина працює набагато ефективніше.

У вузькому значенні теорія інформації — це математична теорія передачі повідомлень у системах зв'язку. Виникла вона внаслідок досліджень американського вченого К

Шеннона. Основні її постулати такі. Повідомлення (точніше, їх коди) надходять з джерела інформації через канал зв'язку до приймача інформації. Ці повідомлення змінюють систему знань (тезаурус) приймача, зменшують рівень його розмаїття, невизначеності, який вимірюється ентропією. Ентропія системи повідомлень визначається їх вірогідностями як середнє значення логарифмів величин, які є зворотними до цих вірогідностей. Виміряти середню кількість інформації можна по зменшенню ентропії сприймача у результаті зміни його уявлень. До речі, звідси й приходить одиниця виміру інформації. Вона визначається кількістю інформації про те, яка з двох однаково вірогідних подій реалізувалася і називається “біт” (початок і кінець англійського словосполучення binary digit (бінарний розряд). Теорія інформації знайшла розвиток у кібернетиці. Саме за допомогою теорії інф

ормації вдалося науково довести загальновідомий принцип кібернетики про те, що розмаїття системи управління має бути не нижче розмаїття об'єкта, який керується цією системою6.

Багато корисного дали суперечки щодо природи інформації. Одним із результатів було виникнення ідеї щодо двох якісно різних видів інформації — докібернетичного і кібернетичного. Підставою для цієї теорії служить твердження про різницю інформативної природи живої та неживої матерії.

Наприклад, Д. І. Дубровський цікаво трактує відмінність між сигналом та інформацією. Він зазначає, що ця різниця лежить в основі виділення двох процесів — того, що відбувається на допсихічному рівні та рівні людської психіки. На рівні кібернетичної системи, яка ще не досягла висот психічного розвитку, сигнал та інформація злиті воєдино і використовуються разом. Що ж до системи, яка має здатність до психічного управління, "то на рівні психічного управління відбувається ніби роздвоєння єдиного, виділення інформації з сигналу,

1 2 3 4 5